GPT-4 模型架构泄露:包含 1.8 万亿参数、采用混合专家模型

人工智能
外媒表示,GPT-4 在 120 层中总共包含了 1.8 万亿参数,而 GPT-3 只有约 1750 亿个参数。而为了保持合理的成本,OpenAI 采用混合专家模型来进行构建。

7 月 13 日消息,外媒 Semianalysis 近日对 OpenAI 今年 3 月发布的 GPT-4 大模型进行了揭秘,其中包括 GPT-4 模型架构、训练和推理的基础设施、参数量、训练数据集、token 数、成本、混合专家模型(Mixture of Experts)等具体的参数和信息

▲ 图源 Semianalysis

外媒表示,GPT-4 在 120 层中总共包含了 1.8 万亿参数,而 GPT-3 只有约 1750 亿个参数。而为了保持合理的成本,OpenAI 采用混合专家模型来进行构建

IT之家注:混合专家模型(Mixture of Experts)是一种神经网络,该系统根据数据进行分离训练多个模型,在各模型输出后,系统将这些模型整合输出为一个单独的任务。

▲ 图源 Semianalysis

据悉,GPT-4 使用了 16 个混合专家模型 (mixture of experts),每个有 1110 亿个参数,每次前向传递路由经过两个专家模型

此外,它有 550 亿个共享注意力参数,使用了包含 13 万亿 tokens 的数据集训练,tokens 不是唯一的,根据迭代次数计算为更多的 tokens。

GPT-4 预训练阶段的上下文长度为 8k,32k 版本是对 8k 微调的结果,训练成本相当高,外媒表示,8x H100 也无法以每秒 33.33 个 Token 的速度提供所需的密集参数模型,因此训练该模型需要导致极高的推理成本,以 H100 物理机每小时 1 美元计算,那么一次的训练成本就高达 6300 万美元(约 4.51 亿元人民币)。

对此,OpenAI 选择使用云端的 A100 GPU 训练模型,将最终训练成本降至 2150 万美元(约 1.54 亿元人民币)左右,用稍微更长的时间,降低了训练成本

责任编辑:姜华 来源: IT之家
相关推荐

2023-12-26 08:17:23

微软GPT-4

2023-06-21 13:22:16

GPT-4模型

2023-05-29 09:29:52

GPT-4语言模型

2023-04-09 16:17:05

ChatGPT人工智能

2023-11-09 12:41:40

AI数据

2023-07-09 14:50:48

模型调优

2024-04-25 16:56:14

GPT-4大模型人工智能

2023-12-09 13:32:21

GPT-4MoE架构开源大模型

2024-04-19 09:17:33

AI模型

2024-01-30 21:18:57

模型智能CMMLU

2023-06-08 11:27:10

模型AI

2024-01-16 12:31:13

OpenAIGLM-4大模型

2024-02-01 14:56:13

GPT-4开源模型

2023-07-11 15:30:08

GPT-4架构

2024-01-10 16:01:28

2023-03-30 11:08:49

AI模型训练

2024-02-07 12:34:00

模型数据

2023-08-27 12:54:59

2022-05-20 10:43:30

AI模型

2024-01-30 20:08:07

谷歌GPT-4Bard
点赞
收藏

51CTO技术栈公众号