
云栖大会阿里掀桌子了!Qwen3-Max、VL、Omini、Agent ... 统统发布!
嘿,大家好!这里是一个专注于前沿AI和智能体的频道~
人在云栖大会,一上来,阿里云智能首席技术官周靖人就介绍了 千问多款新模型发布,一款模型升级。
今天给家人们分享一下,阿里今天发布&开源的那些大模型全家桶!
首当其冲的是Qwen的万亿参数旗舰模型——Qwen3-Max来了。
参数量直接拉满到超1万亿、用36T tokens数据预训练的变态。
月初的Qwen3-Max-Preview,在 LMArena 排名第三,各种表单几乎都是暴捶开、闭源模型。
满血版,Qwen3-Max有多强?
正式版在代码和Agent能力上强得离谱。
在 SWE-Bench 上拿到了69.6,位列全球第一,同时在评估Agent能力的Tau2-Bench,拿到了 74.8,达到了国际SOTA水平。
Qwen3-max同样有思考版本,在结合工具后,AIME 25 和 HMMT 上,都可以刷到100%满分的成绩!
Qwen 最近半年,太恐怖了,从模型尺寸、增大数据、后训练,全方位的Scaling,模型都可以变得越来越强。
不止大,还有全!
不止一个大模型发布,剩下的模型看点更足。
Qwen3-Coder-Plus
作为OpenRouter上,使用率非常高的开源模型,Qwen3-Coder 这次也升级到了 Plus 版。
推理速度更快,代码安全性更高。
更重要的是,这次对 Claude Code 做了深度联合优化,在命令行应用上的效果提升巨大。
Qwen3-VL
不管是DeepSeek还是Kimi,他们都是文本模型。VL模型,几乎大多数人都在跑Qwen2.5 VL版本,这次Qwen3 VL终于更新了。
Qwen3-VL真正的视觉智能体!
开源地址:https://huggingface.co/Qwen/Qwen3-VL-235B-A22B-Thinking
能直接操作你的电脑和手机界面!识别GUI元素、理解按钮功能、调用工具、执行任务,在 OS World 这类操作系统任务的benchmark上达到了世界顶尖水平。
原生支持256K上下文,可扩展到 100万 token。
这意味它能完整看完一部长达两小时的电影,然后精准回答你的问题,定位到秒级。
在多个benchmark上,Instruct 版本已经达到甚至超过了 Gemini 2.5 Pro,Thinking 版本更是和 GPT-5 打得有来有回。
Qwen3-Omni
这是一个全模态预训练大模型,能无缝处理文本、图像、音频、视频等多种输入。
最大的特点是体验更像真人,可以实时流式响应,一边生成文本一边合成自然语音。
开源地址:https://huggingface.co/collections/Qwen/qwen3-omni-68d100a86cd0906843ceccbe
Qwen3-LiveTranslate
一个能看得懂画面的同传模型。
它能结合口型、动作、PPT上的文字来辅助翻译,解决了嘈杂环境和一词多义的翻译难题,延迟最低只有3秒。
最后
从万亿参数、对标GPT-5的 Qwen3-Max,到能看懂UI、操作电脑的 Qwen3-VL,再到能说会道的 Qwen3-Omni 和新一代视频模型 通义万相。
阿里在构建一个从云端超强算力到终端高效应用,覆盖文本、代码、视觉、音视频的全方位AI模型生态。
本文转载自探索AGI,作者:猕猴桃
