推理链缩短60%!新一代混合推理模型如何超越DeepSeek R1?

发布于 2025-8-4 00:21
浏览
0收藏

Deep cogito发布了4个混合推理模型,参数规模分别为70B、109B MoE、405B、671B MoE,均采用开源许可证。

推理链缩短60%!新一代混合推理模型如何超越DeepSeek R1?-AI.x社区

这些模型是世界上最强大的大语言模型之一,并作为一种全新AI范式的概念验证——迭代自我改进(AI系统自我提升)。

其中最大的671B MoE模型位列全球最强开源模型之列。它在性能上匹配甚至超越了最新的DeepSeek v3和DeepSeek R1模型,并接近o3和Claude 4 Opus等闭源前沿模型的水平。

这些模型基于在使用迭代蒸馏与放大(IDA)构建超级智能方面的研究成果。具体而言,我们通过让模型内化推理过程并进行迭代策略改进来扩展模型的智能先验,而不是简单地在推理时进行更长时间的搜索。

这与AlphaGo/AlphaZero的方法相似,只是应用到了自然语言领域。

这似乎是一种全新的扩展范式,模型能够发展出更强的”直觉”,并为自我改进提供了有力的概念验证。由于Cogito模型在推理时搜索过程中形成了更好的轨迹直觉,其推理链比Deepseek R1短了60%。

自我改进方法从目前的实验来看,这种技术比单纯通过延长推理链来”增加搜索”要高效得多。

Blog:https://www.deepcogito.com/research/cogito-v2-preview

推理链缩短60%!新一代混合推理模型如何超越DeepSeek R1?-AI.x社区

推理链缩短60%!新一代混合推理模型如何超越DeepSeek R1?-AI.x社区

推理链缩短60%!新一代混合推理模型如何超越DeepSeek R1?-AI.x社区 图片

本文转载自​​​​​​​​AI帝国​​​​​​​​,作者:无影寺

收藏
回复
举报
回复
相关推荐