
Mistral放大招!新发布模型堪称性价比之王!性能优于 Llama 4,成本降低8倍!更大的开源模型即将发布 原创
编辑 | 云昭
出品 | 51CTO技术栈(微信号:blog51cto)
刚刚,Mistral AI 放大招了!沉寂许久后,这家公司推出了 Mistral Medium 3,这是一款全新级别的 AI 模型,声称能够平衡SOTA性能和成本效益,同时在基准测试中胜过 Meta 的 Llama 4 Maverick 等竞争对手,成本却降低了一个数量级,甚至低于DeepSeek。
各位不妨速览一下亮点:
- SOTA(当前最强)性能,在编程、跨模态理解等专业场景表现领先
- 成本降低 8 倍
- 更简化的部署方式,助力企业加速应用
1.性能与成本的完美平衡,成本低于DeepSeek
该公司在公告中表示,该模型专为企业部署而设计,在编码、STEM 和多模态任务方面表现出色。
Mistral Medium 3 在保持前沿性能的同时,将成本降至原来的一个数量级。举例来说,在各类基准测试中,模型整体表现达到或超过 Claude Sonnet 3.7 的 90%,而成本却大幅降低(每百万 tokens 计,输入 $0.4,输出 $2)。
在性能上,Mistral Medium 3 同样超越了领先的开源模型 Llama 4 Maverick,以及企业级模型 Cohere Command A。在价格方面,无论 API 还是自部署,Mistral Medium 3 都优于成本控制型模型 DeepSeek v3。
图片来源:Mistral
此前,其开源模型Mistral Small 3.1刚刚发布。新模型以 Mistral Small 3 为基础,改进了文本性能、多模态理解能力,并将上下文窗口扩展至高达 128k 个 token。Mistral 声称,该模型的性能优于 Gemma 3 和 GPT-4o mini 等同类模型,同时推理速度高达每秒 150 个 token。
2.专为企业部署而设计
此外,Mistral Medium 3 还可灵活部署于任意云环境,或企业自建、配备 4 块 GPU 及以上的私有服务器,并支持持续预训练和企业系统集成。该公司报告称,金融、能源和医疗保健领域的早期采用者已将其用于个性化客户服务和复杂数据分析。
据报道,尽管该模型规模适中,但在 API 和自托管格式方面均胜过几家规模更大的竞争对手。它只需四个 GPU 即可在系统上运行,这使得拥有不同基础设施能力的组织更容易部署。
3.编码任务优秀,超过Llama4
在针对真实场景的第三方人工评估中,Mistral Medium 3 在编码任务中表现尤为出色,超越了一些明显更大的模型。
图片来源:Mistral
该公司声称,在基准测试中,Mistral Medium 3 的表现优于 Cohere Command A 和Llama 4 Maverick,同时在 API 和自行部署场景中的定价上也优于 DeepSeek v3。
该模型目前可在 Mistral 自己的平台和 Amazon SageMaker 上使用,并且即将在 Azure AI、Google Cloud、IBM WatsonX 和 NVIDIA NIM 上提供支持。
值得注意的是,Mistral 证实其正在开发更大的开放模型。
参考链接:https://mistral.ai/news/mistral-medium-3
本文转载自51CTO技术栈,作者:云昭
