老外给中国 AI 开源厂商打分:第一梯队是 DeepSeek 和 Qwen

发布于 2025-8-19 07:37
浏览
0收藏

中国开源模型开发商排名

Nathan Lambert,Allen人工智能研究所的研究员兼Interconnects通讯作者,于2025年8月17日发布了“中国开源模型开发商排名”。

该报告根据19家中国人工智能实验室在开源AI生态系统中的贡献质量和数量进行评估,重点关注开源模型、工具和数据集的发布,而非专有能力或原始性能。

老外给中国 AI 开源厂商打分:第一梯队是 DeepSeek 和 Qwen-AI.x社区

该排名强调通过可访问的资源推动全球AI发展的影响。Lambert的分析指出,中国在开源AI领域的快速进步,今年夏季的旗舰模型如Qwen 3、Kimi K2和Zhipu GLM 4.5让“AI世界为之震动”。

排名分层如下(基于Lambert的分级):

老外给中国 AI 开源厂商打分:第一梯队是 DeepSeek 和 Qwen-AI.x社区图片

老外给中国 AI 开源厂商打分:第一梯队是 DeepSeek 和 Qwen-AI.x社区图片

此排名具有主观性,基于Lambert对发布质量、创新和生态系统影响的评估。他指出可能存在遗漏,并欢迎反馈以更新未来版本。

对于这个排名,你觉得咋样?

报告的关键见解

  • 方法论:实验室按开源贡献排名,不包括整体实力。这排除了一些专注专有的公司,如百度的主要ERNIE团队或字节跳动的核心努力,但包括其开源分支。
  • 趋势:中国开源生态系统强调成本效益的MoE架构、混合推理模式和行业特定适应。发布通常包括基础模型、指令微调版本和部署工具。
  • 挑战:美国出口管制限制了高端芯片的获取,推动了高效训练的创新(例如FP8精度、异构MoE)。Lambert从本次研究中认识到,理解中国AI生态系统需要更多全球合作。
  • 未来计划:报告提到随着生态系统的发展将重新评估排名,可能包括与西方的比较(如同Lambert后续的西方分层列表,美国实验室无一匹敌中国顶级层级)。

以下几个源于原文描述:

Qwen(通义千问) 

qwenlm.ai | 🤗 Qwen | X @Alibaba_Qwen

通义千问是阿里巴巴云部门的主要AI实验室,以其开源语言模型系列而闻名。多年来,他们一直在发布各种规模的模型(与Llama 1到3非常相似)。最近,他们的Qwen 2.5和Qwen 3模型在AI研究和初创企业开发中的市场份额正在加速增长。

Qwen在发布方面更接近美国大型科技公司而非其他中国AI实验室:他们覆盖了整个技术栈,从VLM到嵌入模型、编码模型、图像和视频生成等。

他们还通过发布各种规模的强大模型来满足所有可能的客户(或者说开源社区的每个部分)。小型密集模型对于学术界进行实验和中小企业为其应用提供动力很重要,因此基于Qwen的模型在受欢迎程度上爆炸式增长也就不足为奇了。

除了为所有人发布模型外,他们还专注于支持(西方)社区,发布用于本地使用的MLX和GGUF版本的模型,或为其编码模型提供CLI,其中包括大量免费请求。

与一些美国公司不同,核心团队在人员数量上似乎保持相对较小,与其他中国AI实验室一致:Qwen3有177名贡献者,而Llama 3的数量是其三倍,Gemini 2.5则有超过3,000人参与模型开发。

月之暗面(Kimi)

moonshot.cn | 🤗 moonshotai | X @Kimi_Moonshot

月之暗面是所谓的"AI六小虎"之一,这是由中国媒体和投资者确定的一组热门中国AI初创公司。这个群体包括百川、智谱AI、月之暗面、MiniMax、阶跃星辰和01.AI——其中大多数都吸引了科技基金和其他科技补助的投资。例如,阿里巴巴被视为AI领域的大赢家,因为他们拥有自己的模型,并且是月之暗面的主要投资者,这有点像美国大型科技公司投资新AI实验室的融资轮。

虽然他们的第一批模型K1和K1.5是封闭的,只能通过API使用,但在R1发布后,他们开始使用Muon优化器发布开源模型的实验模型。与DeepSeek类似,他们专注于单一模型线,小型实验最终反馈到主模型中。K2是他们的"登月计划",即yolo运行,并迅速成为类似于R1的热门产品(请参阅我们的发布报告)。

关于Kimi的更多阅读可以在ChinaTalk上找到。

智谱 / Z.AI

z.ai | 🤗 zai-org | X @Zai_org

智谱在西方被称为Z.ai,是清华大学的初创公司分拆,获得了中国公司和风险投资的大量投资。目前,他们甚至在考虑IPO,这将使他们成为第一家这样做的AI六小虎。

在模型方面,他们最近发布的GLM-4.5和GLM-4.5V最为人所知,这些模型对于其规模来说都非常强大(两者都是相当大的专家混合模型)。然而,他们不仅发布LLM,还发布图像和视频生成模型,使他们与纯LLM公司和实验室区别开来。

阶跃星辰(StepFun)

 stepfun.ai | 🤗 stepfun-ai | X @StepFun_ai

阶跃星辰最初是一家封闭模型提供商,但在DeepSeek R1震撼行业后转向开源模型发布。他们主要专注于多模态模型发布,Step3是他们的旗舰VLM。他们还有图像、音频和视频生成模型。

腾讯(混元)

hunyuan.tencent.com | 🤗 Tencent | X @TencentHunyuan

混元主要以HunyuanVideo和Hunyuan3D而闻名。虽然他们已经发布了三个系列的不同LLM,但他们的发布带有非常严格的许可证,这对中国公司来说是不寻常的,当与可以在其他地方找到的性能水平相结合时,会抑制兴奋感。

小红书(RedNote)

xiaohongshu.com | 🤗 rednote-hilab

中国版Instagram小红书最近加入了发布开源模型的中国公司行列。特别是他们强大的字符识别/OCR模型让许多人感到惊讶(请参阅我们的报道)。与小米和百度类似,他们在近期和远期的整体开放战略是什么还有待观察,他们还没有在大型前沿模型领域竞争。

MiniMax

minimaxi.com | 🤗 MiniMaxAI | X @MiniMax__AI

MiniMax是另一家AI六小虎,也是从封闭公司开始的。在R1发布后,他们改变了策略,发布了Minimax-Text-01的权重,随后发布了基于它的推理模型。这些模型的独特卖点是通过混合注意力实现的100万上下文窗口。

这些文本模型并不是他们唯一关注的——他们还有图像和视频生成模型,但这些仍然是封闭的,只能通过他们的API使用。他们还在大力推广他们的消费者平台,因为他们着眼于IPO。

OpenGVLab / InternLM

internlm.intern-ai.org.cn | 🤗 InternLM | X @opengvlab

InternLM和OpenGVLab与上海人工智能实验室有着深厚的联系,InternLM专注于语言模型,而OpenGVLab发布视觉模型。虽然他们发布了一系列模型,如S1或InternLM-Math,但这些组织主要以强大的InternVL系列而闻名。虽然第一个版本主要使用他们自己的InternLM预训练模型,但后来的版本(如InternVL3)依赖Qwen作为语言后端。

OpenBMB

openbmb.ai | 🤗 openbmb | X @OpenBMB

OpenBMB是清华大学NLP实验室(智谱从同一所大学分拆出来)的开源社区(类似于BigScience),得到了北京人工智能研究院(BAAI)和ModelBest的支持。

他们主要专注于边缘的小型多模态模型,如MiniCPM-V-4。然而,许可证相当严格,考虑到该组织的社区驱动起源,这令人惊讶。除了模型发布,他们还发布框架和专门的内核,以确保他们的模型在低端硬件上运行。

字节跳动豆包:颠覆性定价策略的全球挑战者

快速崛起成为全球第二的秘密

字节跳动豆包在2024年5月正式发布后,仅用半年时间就成为全球月活用户第二的AI应用。根据2025年最新数据,豆包以 1.07亿MAU位居全球第二,仅次于ChatGPT的5.46亿,超越了DeepSeek的9,688万。在中国市场,豆包更是以5,998万MAU稳居第一。

这种爆发式增长背后是精心设计的技术和商业策略。豆包-1.5-Pro采用稀疏混合专家(Sparse MoE)架构,在推理时仅激活部分参数,却能实现相当于7倍规模密集模型的性能,效率比传统MoE架构提升3倍。在成本控制上,豆包达到了惊人的水平:每百万token仅需 0.11美元 (输入),比DeepSeek R1便宜5倍,比OpenAI o1便宜200倍。

激进的投流策略与用户增长

字节跳动在推广豆包上展现了其在流量运营方面的核心优势。2024年4-5月,公司投入1,800万元广告费用,6月猛增至 1.24亿元。通过与抖音(4亿+日活)、今日头条等50多个自有应用的深度整合,豆包实现了低成本的病毒式增长。

用户数据显示,豆包的日均token消耗量超过4万亿,自发布以来增长了33倍。日新增下载量达到80万用户,留存率超过50%,远高于行业平均水平。这种增长不仅来自免费策略降低的使用门槛,更得益于字节跳动在用户体验和产品迭代上的极致追求。

与DeepSeek的激烈竞争

2025年1月,DeepSeek在日活用户上以2,220万反超豆包的1,700万,但豆包在月活用户上仍保持领先。两者的竞争体现了不同的技术路线:豆包采用闭源的专有稀疏MoE架构和异构系统设计,而DeepSeek坚持开源路线,专注于强化学习训练。

在商业模式上,豆包通过火山引擎平台主攻B2B市场,已覆盖30多个行业,企业客户平均使用量增长22倍。关键企业合作包括招商银行、华泰证券等金融机构,以及沐瞳科技等游戏公司。豆包还为学术界提供数万亿免费token支持研究。

Seed团队的组织架构与人才战略

字节跳动为AI发展建立了独特的双轨组织结构:Flow部门专注文本和多模态生成,Seed部门探索通用智能的新方法。Seed团队预计2025年将超过300名员工,创始人张一鸣亲自参与AI人才招募。

公司的"Top Seed人才计划"瞄准2025-2026年毕业的博士生,提供"远超行业平均水平"的实习薪酬。最新的招聘重点包括机器人开发(10多个岗位)、多模态生物基础模型、量子化学应用等前沿领域。2024年12月,字节跳动与北京大学建立联合实验室,专注大模型系统软件和超大规模集群资源研究。

商业化模式与收入情况

字节跳动2024年总营收达到1,550亿美元,增长29%。AI相关资本支出110亿美元,预计2025年将达到220亿美元。豆包的商业模式呈现B2B和B2C双轮驱动特征:B2B业务通过火山引擎提供API服务,估计贡献50%以上的AI收入;B2C则通过免费应用获取用户,通过生态系统变现。

最新的豆包1.6定价为每百万token输入0.8元、输出8元,视频生成每千token仅1.05元,比竞争对手便宜70%。这种激进的定价策略正在重塑整个AI行业的经济模型,迫使所有竞争对手跟进降价。

小米:轻量化AI的创新实践者

大模型布局与MiLM技术特点

小米采用"(软件×硬件)^AI"的战略公式,将AI定位为其"人车家"生态系统的指数级倍增器。2024年11月发布的MiLM2系列覆盖0.3B到30B参数范围,支持云端、边缘和设备端部署。技术创新包括将上下文窗口从4,000扩展至 20万token,TransAct结构化剪枝方法减少92%计算量,专有量化方法将精度损失降低78%。

2025年最新发布的MiMo-7B展现了小米在模型效率上的突破。尽管只有70亿参数,MiMo在AIME 2025测试中达到55.4%通过率,超越OpenAI的o1-mini 4.7个百分点。这一成就源于25万亿token的从零训练和2,000亿推理token的专门优化。

与硬件产品的深度结合

小米是首家成功在移动设备上运行13亿和60亿参数模型的公司。小米14/15系列、Redmi K60/K50系列均已支持端侧AI。在汽车领域,小米SU7集成了MiLM-1.3B,实现全链路语音交互,用户可通过车辆控制智能手机、CarIoT和家居设备。HyperOS整合了AI模型跨200多个处理器平台和20多个文件系统,HyperMind认知中心使用环境、视觉、声音和行为感知构建智能家居体验。

小爱同学的AI升级情况

2024年2月小爱通过大模型监管审批,9月完成"大模型小爱"全设备升级。增强功能包括智能问答、实时翻译、文档分析、会议转录等,生成速度超过每秒11个词。覆盖设备包括小米5系列以上手机、小米音响Pro等智能音箱,以及即将推出的智能显示屏。2025年最新功能包括AI图像创意编辑、车辆外部唤醒等跨设备协调能力。

百度文心一言:搜索巨头的AI转型

最新版本与技术进展

2025年3月发布的ERNIE 4.5系列采用混合专家架构,最大模型达424B参数,活跃参数47B。ERNIE X1深度思考模型在推理任务上与DeepSeek R1性能相当,但 成本降低50%。技术创新包括FlashMask动态注意力掩码、异构多模态混合专家、时空表示压缩等。性能基准显示,ERNIE在中文语言处理多项指标上超越GPT-4。

市场份额与用户规模

文心一言用户增长呈现爆发态势:从2024年4月的2亿用户增长至11月的 43亿总用户。API日调用量达到165亿次,是2023年的33倍。根据IDC报告,百度在中国MaaS市场占有率28%,AI大模型解决方案市场占有率17%,均位列第一。平台统计显示,已有100万+应用开发、1,000+平台组件、85,000服务客户和40万+企业用户。

与其他国产大模型的竞争态势

相比豆包的娱乐和社交媒体整合,文心一言在企业应用和B2B服务领域领先。在金融领域,6家国有大行和30多家区域银行采用文心;医疗领域600多家医院使用智能诊断系统,准确率92.7%;政府服务覆盖283个城市,日均咨询500万次。2025年4月起文心机器人完全免费,应对新兴竞争对手的挑战。

商业化进展

2024年百度总收入1,331亿元,AI云收入同比增长26%,AI相关收入增长近3倍。企业定价策略上,ERNIE 4.5 API每千token输入0.004元、输出0.016元,比GPT-4.5便宜99%。中国财富500强企业中78%已部署文心应用。成功案例包括建设银行4,000多个网点日均200万+咨询量、92%解决率;宝钢智能质检准确率提升35%、效率提升68%。

排名实验室的详细资料(仅供参考)

以下是每个层级的公司背景、成立日期、主要发布和贡献的分解(从搜索和报告细节中编译)。成立日期基于现有数据为近似值。

前沿层级

这些实验室在高质量、频繁的开源发布方面领先,推动生态系统增长。

  • DeepSeek AI (成立:2023年7月,杭州;由High-Flyer对冲基金支持)      主要模型:DeepSeek-V2(2024年5月)、DeepSeek-Coder-V2(2024年7月)、DeepSeek-V3(2024年12月,671B参数)、DeepSeek-R1(2025年1月)、DeepSeek-R1-0528(2025年5月)。
    贡献:专注于成本效益的MoE架构;V3训练成本600万美元,使用受出口限制的芯片。采用MIT开源许可;在推理/数学领域表现卓越。支持聊天机器人;影响全球“人造卫星时刻”。
  • Qwen(阿里巴巴) (成立:2013年作为阿里巴巴的一部分;Qwen系列始于约2023年)      主要模型:Qwen1.5(2023年)、Qwen2(2024年6月)、Qwen2.5(2024年9月)、Qwen3(2025年4月,密集/MoE变体高达235B-A22B)、QwQ-32B(2024年11月)、QvQ-72B(2025年)、Qwen3-Coder(2025年7月)。
    贡献:Apache 2.0许可;混合推理模式;在多语言/嵌入任务中表现强劲。下载量超过3亿次;支持阿里巴巴生态系统。Qwen3系列在36T标记上训练,在推理方面(例如62分在智能指数上)表现出色。

接近竞争对手层级

强劲的挑战者,持续发布高影响力成果。

  • 月之暗面AI(Kimi) (成立:2023年3月,北京;创始人:杨志林等人)      主要模型:Kimi(2023年10月,20万上下文)、Kimi K1.5(2025年1月)、Kimi K2(2025年7月,1T总数/32B活跃MoE)。
    贡献:长上下文专家;代理AI重点。K2采用修改后的MIT开源许可;在编码/数学领域表现卓越。支持Kimi聊天机器人(1300万用户)。
  • 智谱AI (成立:2019年,北京;源自清华大学)      主要模型:GLM-4系列(最高GLM-4.5,2025年7月)、CogView4-6B、CogVideoX1.5-5B。
    贡献:后训练能力强;GLM-4.5在工具使用/推理上处于SOTA状态。采用Apache开源许可;注重代理原生功能。

值得注意层级

可靠的贡献者,具有值得注意的创新。

  • StepFun (成立:2023年4月,北京)主要模型:Step-2(万亿参数MoE)、Step-1.5V、Step-1X(图像生成)、Step3(2025年7月,多模态推理)。
    贡献:硬件感知设计;低成本解码。开源Step系列;在视觉/多模态领域表现卓越。
  • 腾讯(Hunyuan) (成立:1998年;AI努力始于2010年代)主要模型:Hunyuan-Turbo(2025年)、Hunyuan-Large(2024年11月,389B/52B活跃MoE)、Hunyuan3D-2(3D生成)。
    贡献:在编码/多模态领域表现强劲;Hunyuan-Large在中文任务上处于SOTA状态。采用Apache开源许可。
  • 红点(小红书) (成立:2013年,上海;AI努力始于2023年)主要模型:dots.llm1(2025年6月,142B/14B活跃)、Hailuo(视频生成)。
    贡献:社交媒体导向;内容生成能力强。开源dots系列;与小红书应用集成。
  • MiniMax (成立:2021年,上海)主要模型:MiniMax-M1(2023年7月)、Hailuo(视频生成)、MiniMax-Text-01(2025年1月,456B/45.9B活跃)、MiniMax-VL-01(多模态)。
    贡献:代理焦点;长上下文效率。采用Apache开源许可;在视频/语音领域表现强。
  • OpenGVLab / InternLM (成立:约2021年,上海;上海人工智能实验室)主要模型:InternLM2(2024年)、InternVL3(2025年4月,最高78B)、InternVL2.5(2025年7月)。
    贡献:多模态焦点;开源Intern系列。在视觉-语言领域强;支持多任务输出。
  • Skywork (成立:约2023年,北京;昆仑科技)主要模型:Skywork-13B(2024年)、Skywork-R1V3-38B(2025年7月)、Skywork-SWE-32B(SWE重点)。
    贡献:开源推理模型;在数学/代码领域强。采用Apache开源许可;注重数据扩展。

上升期层级

新兴玩家,影响力日益增长。

  • 字节跳动Seed (成立:2023年;字节跳动的AI实验室)主要模型:Seed1.5-VL(2025年5月,多模态)、Seedance(2025年6月,视频生成)、Seed-Prover(2025年8月,定理证明)。
    贡献:多模态/推理焦点;开源Seed系列。支持豆包聊天机器人。
  • OpenBMB (成立:2022年;清华大学衍生)主要模型:CPM-2(2021年)、MiniCPM系列(最高MiniCPM-V-4,2025年8月,4B参数)。
    贡献:高效小型模型;开源MiniCPM(边缘部署)。在多模态领域强。
  • 小米(MiMo) (成立:2010年;AI努力始于2023年)主要模型:MiMo-7B(2025年4月,推理系列)。
    贡献:紧凑型推理模型;采用Apache开源许可。尽管规模小,但在数学/代码领域表现强。
  • 百度(ERNIE) (成立:2000年;AI自2019年以来)主要模型:Ernie 3.0(2023年)、Ernie 3.5(2023年6月)、Ernie 4.0(2023年10月)、Ernie 4.5(2025年3月,多模态)、Ernie X1(2025年3月,推理)。
    贡献:混合推理;在中文/多模态领域强。部分开源;支持Ernie Bot(3亿用户)。

荣誉提及层级

有潜力但贡献有限的实验室。

  • 多模态艺术投影(M-A-P) (成立:2022年7月;开源社区)主要模型:MERT(音乐)、MuPT(符号音乐)、YuE(音乐生成,2025年1月)。
    贡献:多模态艺术焦点;开源音乐模型。
  • 阿里巴巴国际数字商业集团 (成立:2017年作为阿里巴巴的一部分;AI约2023年)主要模型:Aidge/Pic Copilot(AI电商设计,2023年12月)。
    贡献:电商工具;多语言支持。
  • 北京人工智能研究院(BAAI) (成立:2018年11月,北京)主要模型:吴道系列(2021年)、Emu3(2024年10月,多模态)、FlagAI工具包。
    贡献:研究枢纽;开源基础设施。注重伦理/安全。
  • InclusionAI (成立:约2023年;学术焦点)主要模型:具体有限;对数据集/工具的贡献。
    贡献:AI包容性;开源以减轻偏见。
  • 盘古(华为) (成立:2021年;华为AI实验室)主要模型:Pangu-Σ(2023年4月,1.085T参数)、Pangu 3.0(2023年7月)、Pangu 5.0(2024年6月)、Pangu 5.5(2025年6月,718B参数)。
    贡献:行业特定;多模态。聚焦制造/天气。​

本文转载自​AI进修生​,作者:Aitrainee

已于2025-8-19 10:15:49修改
收藏
回复
举报
回复
相关推荐