关于大模型本地部署的一些问题——怎么在本地部署模型 原创

发布于 2025-9-9 09:28
浏览
0收藏

“ 由于模型协议标准的问题,因此不同的推理引擎对不同协议的支持程度也不同;这就本地部署中存在各种各样的潜在问题。”

对大模型应用开发者来说,使用模型无非两种方式,一种是使用第三方模型,另一种是自己本地部署模型;当然个人学习者和小微企业更适合前者,而大型企业和对数据安全要求较高的企业适合后者。

但不管怎么说,学习大模型的本地部署都是一个非常必要的技能;所以,今天我们就从技术的角度来学习一下本地模型本地部署存在的一些坑。

关于大模型本地部署的一些问题——怎么在本地部署模型-AI.x社区

模型本地部署

从模型应用开发者的角度来说,使用模型的本质就是在调用模型接口;因此不论是使用第三方模型,还是自己本地部署模型都需要把模型封装成接口使用。

而且在之前的文章中说过,不同的模型厂商都会有一套自己的标准协议,只不过目前openai的协议几乎成为了默认的行业标准;因此很多厂商都兼容了openai的协议标准,但同时也保留了自己的标准。

关于大模型本地部署的一些问题——怎么在本地部署模型-AI.x社区

因此,很多时候我们使用openai的标准可以使用大部分厂商的模型,但部分模型和功能我们会无法使用,原因是不支持。

而对本地部署来说同样如此,本地部署模型选择框架需要考虑很多问题,比如说支持哪些模型,哪些版本,支持哪些参数,API有哪些功能,是否支持多并发等等。

其次,不同的模型推理框架支持不同的API和参数配置;比如说使用ollama,vLLM,SGlang等;其默认提供一些API接口,这时我们只需要通过其提供的下载工具,或者按照其要求下载对应的模型文件即可。

关于大模型本地部署的一些问题——怎么在本地部署模型-AI.x社区

而类似于huggingface这种平台,其社区版默认不提供API的能力,我们在下载其模型之后,还需要使用API框架以及其提供的工具包封装API,以供我们业务使用。

当然,这种需要自己封装API的方式有好有坏,好处是定制化更强,我们可以根据需要封装我们的功能;但坏处也很明显,需要我们自己维护系统,对技术要求更高,并且还需要专门的人员去维护和开发模型功能。

在这里有一个需要注意的点就是,不同的推理框架支持的功能和参数都不一样;以现在模型常见的thinking模式为例,现在很多模型都支持了思考模式,但对使用者来说,我们有时候需要思考模式,而有时候不需要思考模式;因此,这时就需要有一个开关来开启或关闭思考模式。

对模型厂商来说,既然提供了思考模式,那么就肯定提供了思考模式的开关;但对于推理框架来说,虽然模型本身支持关闭思考模式,但推理框架可能并不支持此模式。

关于大模型本地部署的一些问题——怎么在本地部署模型-AI.x社区

因此,这里就有一个问题,在需要关闭或开启思考模式的时候,却做不到。而这也是作者这两天遇到的问题,公司部署的模型支持思考模式的开启和关闭,但在具体的应用场景中我却并不需要这个思考模式,但又关不掉,原因就是推理框架不支持此参数。

而之所以会出现这种情况的原因,就是上面所说的协议标准问题;现在大部分的推理框架主要也都是兼容openai的协议标准,对其它一些三方模型的支持并不好,特别是一些知名度不是很高的厂商。

所以,这是模型部署过程中必须要面对的问题;在具体的企业环境中,除了特殊原因之外,尽可能找哪些社区更活跃,功能更完善的推理框架;而不是单纯的只是为了节约成本,选择那种成本更低的推理引擎,最后影响业务环境的运行。


本文转载自​​AI探索时代​​ 作者:DFires

©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
收藏
回复
举报
回复
相关推荐