
开源新王诞生!MiniMax-M1正式发布,超强上下文能力剑指DeepSeek! 原创
一百万token上下文窗口,八倍于DeepSeek R1的处理长度,训练成本仅53万美元——沉寂已久的AI六小虎之一MiniMax用开源新模型重新定义了性价比。
6月17日,中国AI领域再掀巨浪。AI创业公司MiniMax正式宣布开源其最新大模型MiniMax-M1,以创纪录的100万token上下文处理能力和仅53.47万美元的训练成本,创造了开源领域的里程碑。
这款搭载4560亿参数的全新混合专家模型(MoE)已在Hugging Face平台全面开放,成为目前全球开源模型中长文本推理能力最强的“新王者”。
同时,官网也同步上线了新模型:
与DeepSeek R1相比,M1的上下文处理能力提升了整整8倍,与谷歌Gemini 2.5 Pro处于同一水平,而输出token量可达8万。
而这么惊艳的表现,MiniMax仅仅使用了512块H800 GPU集群,三周内就完成了模型训练,成本仅为DeepSeek R1的十分之一,OpenAI训练GPT-4的千分之五。
技术架构上,M1采用了创新的“闪电注意力机制”,大幅降低了长文本推理的计算负担。在处理10万token生成任务时,其计算量(FLOPs)只需要DeepSeek R1的25%。
同时,MiniMax自研的CISPO强化学习算法,在收敛速度上较字节跳动的DAPO算法快一倍,比DeepSeek早期采用的GRPO效率提升更为显著。
性能方面,MiniMax-M1在17项主流测试中都有十分出色的表现。
在软件工程基准SWE-bench上,M1-80K版本达到56.0%准确率,虽略低于DeepSeek-R1的57.6%,但大幅领先其他开源模型。在代理工具使用场景(TAU-bench)中,M1甚至击败了谷歌Gemini 2.5 Pro,成为开源模型中的佼佼者。
【MiniMax-M1与领先开源及闭源模型的基准性能比较】
尤其在需要超长文本理解的法律文档分析、长篇代码审查等场景,M1展现出接近OpenAI o3和Claude4 Opus的商业级表现。
在DeepSeek引爆的开源浪潮之后,MiniMax-M1的发布无疑给中国AI竞技场再添一把火。
虽然AI六小虎格局已逐步让位于「基模五强」,但MiniMax用这款百万级上下文的开源模型,宣告自己仍在牌桌之上。
另一方面,M1对DeepSeek等中国AI企业也构成了一定挑战:它以八倍的上下文处理能力和十分之一的训练成本,重新定义了国产大模型的性价比标准。
当企业用户面对复杂文档分析、代码仓库级审查等任务时,M1的百万token窗口提供了闭源模型之外的高性能选择。
这种开源创新正在重塑中国AI的竞争范式。将了不起的模型开源出来,可以让更多的人有机会在这些模型的基础上做更多了不起的事情。
而今MiniMax接力开源,标志着中国AI企业的集体跃升。
当DeepSeek被200多家企业快速接入,背后是国产模型、国产云服务、国产算力共同形成的产业闭环;MiniMax以M1加入战局,则进一步强化了这种生态协同。
这场开源盛宴将加速AI能力的平民化普及。当53万美元就能训练出百万token的顶级模型,当Apache许可证下的MoE架构唾手可得,AI创新将不再被巨头垄断。
正如MiniMax在技术报告中强调的:“M1为下一代语言模型智能体奠定了坚实基础,使其能够推理并应对现实世界的挑战”。
一个由开源力量驱动的AI普惠时代,正在中国企业的接力创新中全速驶来。
