什么是混合专家模型——MoE(Mixture of Experts) 原创

发布于 2025-8-15 08:56
浏览
0收藏

“ 混合专家模型的核心思想就是在推理过程中,不要让模型全部动起来,而是让模型部分动起来。”

DeepSeek模型被发布时,很多人应该都知道其最大的优势是大大降低了模型的成本问题,而且传说DeepSeek的训练成本才五百多万美元;相对于之前的动辄上千万美元的成本,可以说DeepSeek真的做到了让大模型走进各行各业。

但是,虽然很多人都知道DeepSeek大大降低了模型的成本问题,但却很少有人知道它是怎么降低成本的;而这也是我们今天要讨论的问题——混合专家模型(MoE Mixture of Experts);因为混合专家模型架构的存在,才使得模型能够被更多的人和行业使用。

MoE——混合专家模型

什么是混合专家模型——MoE?

对于大名鼎鼎的Transformer架构,很多人应该都知道,其核心组件是编码器,解码器和注意力机制;而MoE混合专家架构的核心就是——专家和门控网络(路由机制)。

MoEs的根源可以追溯到1991年的论文《 Adaptive Mixture of Local Experts》。这个想法与集成方法类似,目的是为由不同子网络组成的系统提供一种监督过程。每个单独的网络或专家都专门处理输入空间的不同区域。那么如何选择专家呢?一个门控网络确定每个专家的权重。在训练过程中,专家和门控都会被训练。

MoE与传统的编码器解码器架构的区别主要就是一个分而治之的思想,也可以说是根据职能划分不同的专业顾问团队。

在标准的Transformer架构中,每个token均通过单一的前馈神经网络(FFN)进行处理;而MoE架构对这一处理流程进行了关键性修改,在前馈模块内部,系统部署了多个独立的网络单元而非单一网络,每个网络单元维护独立的权重参数,被称为"专家"。

什么是混合专家模型——MoE(Mixture of Experts)-AI.x社区

说了这么多肯定很多人都没看懂,其实简单来说就是之前的神经网络架构,所有数据都是经过统一的处理流程,但很多时候我们可能并不需要这些统一的流程。

举例来说,一个新员工入职,他只需要负责他的岗位内容即可,不需要去了解公司的财务,营销,生产等所有环节,这样做既费时又费力。而MoE架构就是让专业的人做专业的事,因为对模型来说一次生成过程并不需要所有的参数都参与进来;因此,使用MoE架构之后,就可以给模型划分多个不同的专家,然后在遇到具体问题时,只需要让部分专家参与即可,这样既省时又省力。

这种设计类似于专业顾问团队,每个顾问具备特定的专业技能。MoE架构的两个核心组件包括专家网络(Experts)和路由机制(Router)。专家网络是指每个FFN层现在包含一组可选择的专家单元,这些专家通常本身就是FFN(前馈网络)结构。路由器或门控网络(gate network)负责决策哪些token分配给哪些专家处理。

什么是混合专家模型——MoE(Mixture of Experts)-AI.x社区

MoE Transformer的构建方法

MoE架构通过将Transformer模块中的特定前馈层替换为MoE层来实现。MoE层中的专家架构与标准前馈网络相似,但在单个MoE层中部署多个专家单元。并非所有层都需要采用MoE设计。大多数模型采用步长参数P,仅在每P层中使用专家结构。这种交错(interleaving)方法在获得专家优势的同时,避免了模型过度复杂化,实现了性能与复杂度的平衡。


本文转载自​AI探索时代​ 作者:DFires

©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
已于2025-8-15 08:56:40修改
收藏
回复
举报
回复
相关推荐