吴泳铭不藏了!大模型时代,阿里要做这两件大事:AI时代的安卓,全球超级AI云! 原创

发布于 2025-9-24 15:44
浏览
0收藏

编辑|云昭

出品 | 51CTO技术栈(微信号:blog51cto)

“我们判断,大模型将是下一代OS;通义要做AI时代的安卓系统!”

“未来全球可能只会有5~6家超级AI云计算平台。”

9月24日,云栖大会如期而至。在主论坛上,阿里CEO吴泳铭发表了《超级人工智能》的主题演讲。演讲中,“吴妈”终于不藏了,坚定宣布了阿里在开放大模型上的决心与野心。

当然,做AI时代的安卓,只是阿里在大模型领域的战略。吴泳铭紧接着亮出了第二个野心 。作为自己亲自执掌的阿里云智能集团,吴泳铭也给了阿里云一个全新的身份:

阿里云要做全球领先的全栈人工智能服务商。

这两个野心背后都暗含着阿里近三年来对于生成式AI发展规律的判断。

吴泳铭在会场给出了两个重要的判断。

其一,大模型是下一代的操作系统。其二,超级AI云是下一代的计算机。

此外,生成式AI以互联网3倍甚至4倍的速度狂奔,阿里又是怎样规划未来世界的?吴泳铭在开场也给出了答案。有意思的是吴泳铭没有太多提及“AGI”这个词汇,而是采用了“ASI”这一说法。

ps:Meta CEO 扎克伯克非常爱用这个词,包括近两个月他疯狂挖人组建的团队也是用“ASI”来命名。

吴泳铭提出这样一种观点,非常值得关注:

实现通用人工智能AGI已是确定性事件,但这只是起点,终极目标是发展出能自我迭代、全面超越人类的超级人工智能ASI。

当然,除了吴泳铭的精彩判断以外,另一位老熟人,阿里CTO周靖人也再次带来非常丰富扎实且创新满满的阿里新品。

全程约2小时,料十足,这里重点整理了两位演讲的精彩部分。

吴泳铭的“ASI”定义

众所周知,“AGI”与“ASI”是自ChatGPT爆火以来就诞生的两个“野望”。但两者究竟如何理解呢?区别又在哪里?

吴泳铭在keynote上给出了自己的定义:实现通用人工智能(AGI)已经是确定性事件。而超级人工智能(ASI)则是最终目标则是要发展出自我迭代、全面超越人类的AI。

而且AGI不是终点,而是实现ASI的起点。

那具体来看,吴泳铭是如何规划“通往ASI的路径”的?

吴泳铭不藏了!大模型时代,阿里要做这两件大事:AI时代的安卓,全球超级AI云!-AI.x社区图片

吴泳铭阐述了通往ASI的三阶段演进路线:

第一阶段:“智能涌现”,AI通过学习海量人类知识具备泛化智能。

第二阶段:“自主行动”,AI掌握工具使用和编程能力以“辅助人”,这是行业当前所处的阶段。

第三阶段:“自我迭代”,AI通过连接物理世界并实现自学习,最终实现“超越人”。

吴泳铭不藏了!大模型时代,阿里要做这两件大事:AI时代的安卓,全球超级AI云!-AI.x社区图片

其中第一阶段:“智能涌现”,特征是“学习人”。代表事件是:AI已经逼近人类各学科测试的顶级水平,比如国际数学奥赛的金牌水平。AI逐渐具备了进入真实世界、解决真实问题、创造真实价值的可能性。

吴泳铭表示,这是过去几年AI圈发展的主线。

第二个阶段是“自主行动”,特征是“辅助人”。这个阶段,AI不再局限于语言交流,而是具备了在真实世界中行动的能力。AI可以在人类的目标设定下,拆解复杂任务,使用和制作工具,自主完成与数字世界和物理世界的交互,对真实世界产生巨大影响。这正是我们当下所处的阶段。

对于这个阶段,吴泳铭认为,实现这一跨越的关键,有两点能力的跃迁。

首先是大模型具备了Tool Use能力,有能力连接所有数字化工具,完成真实世界任务。

“通过Tool Use,AI可以像人一样调用外部软件、接口和物理设备,执行复杂的真实世界任务。这个阶段,由于AI能够辅助人类极大提高生产力,它将快速的渗透到物流、制造、软件、商业、生物医疗、金融、科研等几乎所有行业领域。”

其次,大模型Coding能力的提升,可以帮助人类解决更复杂的问题,并将更多场景数字化。现在的Agent还比较早期,解决的主要是标准化和短周期的任务。要想让Agent能解决更复杂、更长周期任务,最关键的是大模型的Coding能力。因为Agent可以自主Coding,理论上就能解决无限复杂的问题,像工程师团队一样理解复杂需求并自主完成编码、测试。发展大模型Coding能力是通往AGI的必经之路。

未来,自然语言就是AI时代的源代码,任何人用自然语言就能创造自己的Agent。你只需要输入母语,告诉AI你的需求,AI就能自己编写逻辑、调用工具、搭建系统,完成数字世界的几乎所有工作,并通过数字化接口来操作所有物理设备。

吴泳铭进一步指出,在未来,也许会有超过全球人口数量的Agent和机器人与人类一起工作,对真实世界产生巨大影响。在这个过程中,AI就能连接真实世界的绝大部分场景和数据,为未来的进化创造条件。

而第三个阶段,“自我迭代”,特征是“超越人”。

吴泳铭特别强调了两个关键要素:真实世界的全量原始数据、self learning。

第一、AI连接了真实世界的全量原始数据。吴泳铭认为,现在大模型所获的数据几乎全部是人类定义和创造的“二手信息”,如果要实现超越人类的AI,就需要从真实物理世界中获得更原始更全面的数据。

对于其他领域和更广泛的物理世界,今天的AI接触到的更多是人类归纳之后的知识,缺乏广泛的、与物理世界交互的原始数据。这些信息是有局限的。AI要实现超越人类的突破,就需要直接从物理世界获取更全面、更原始的数据。 

吴泳铭还举了一个自动驾驶方面的例子。“就像在自动驾驶的早期阶段,只靠人类的总结,Rule-based的方法去实现自动驾驶,无法实现很好的效果。新一代的自动驾驶,大部分采用端到端的训练方法,直接从原始的车载摄像头数据中学习,实现了更高水平的自动驾驶能力。”

只是让AI学习人类归纳的规律,是远远不够的。只有让AI与真实世界持续互动,获取更全面、更真实、更实时的数据,才能更好的理解和模拟世界,发现超越人类认知的深层规律,从而创造出比人更强大的智能能力。

第二、Self-learning自主学习。吴泳铭将其视为AI发展的关键时刻。他是这样形容这个阶段的:

随着AI渗透更多的物理世界场景,理解更多物理世界的数据,AI 模型和agent能力也会越来越强,有机会为自己模型的升级迭代搭建训练infra、优化数据流程和升级模型架构,从而实现 Self learning。

有了数据和自主学习能力之后,一个早期的ASI便会成型。

未来的模型将通过与真实世界的持续交互,获取新的数据并接收实时反馈,借助强化学习与持续学习机制,自主优化、修正偏差、实现自我迭代与智能升级。每一次交互都是一次微调,每一次反馈都是一次参数优化。当经过无数次场景执行和结果反馈的循环,AI将自我迭代出超越人类的智能能力,一个早期的超级人工智能(ASI)便会成型。

两个判断:阿里的两个AI野心

正如文章开头所提到的。吴泳铭在会场公开对外押了两个“宝”。

第一个“宝”则是关于下一代OS的变化。“我们认为大模型代表的技术平台将会替代现在OS的地位,成为下一代的操作系统。”

这是吴给出的第一个判断。虽然业界很早就有这样的说法,但这是阿里第一次在如此重要的场合阐明自己的立论依据。

吴泳铭不藏了!大模型时代,阿里要做这两件大事:AI时代的安卓,全球超级AI云!-AI.x社区图片

在“LLM OS时代”,几乎所有链接真实世界的工具接口都将与大模型进行链接,所有用户需求和行业应用将会通过大模型相关工具执行任务,LLM将会是承载用户、软件 与 AI计算资源交互调度的中间层,成为AI时代的OS。

可以做一些简单的类比:

自然语言是AI时代的编程语言,Agent就是新的软件,Context是新的Memory,大模型通过MCP这样的接口,连接各类Tools和Agent类似PC时代的总线接口,Agent之间又通过A2A这样的协议完成多Agent协作类似软件之间的API接口。

此外,大模型还将吞噬软件。吴泳铭认为,大模型作为下一代的操作系统,将允许任何人用自然语言,创造无限多的应用。未来几乎所有与计算世界打交道的软件可能都是由大模型产生的Agent,而不是现在的商业软件。潜在的开发者将从几千万变成数亿规模。

以前由于软件开发的成本问题,导致只有少量高价值场景才会被工程师开发出来变成商业化的软件系统。而在未来,所有终端用户都可以通过大模型这样的工具来满足自己的需求。

此外,模型部署方式也会多样化,它将运行在所有设备上。现在主流的调用模型API的方式,来使用模型只是初级阶段,其实看起来非常原始,有点像过去大型主机时代的分时复用阶段,每个人只有一个终端连接上大型主机分时复用。

这种方式的问题在于:无法解决数据持久化,缺乏长期记忆,实时性不够,隐私无法解决,可塑性也不够。未来模型将运行在所有计算设备中,并具备可持久记忆,端云联动的运行状态,甚至可以随时更新参数,自我迭代,类似我们今天的OS运行在各种环境之中。

正是基于这个判断,我们做了一个战略选择:通义千问选择开放路线,打造AI时代的Android。“我们认为在LLM时代,开源模型创造的价值和能渗透的场景,会远远大于闭源模型。我们坚定选择开源,就是为了全力支持开发者生态,与全球所有开发者一起探索AI应用的无限可能。”

阿里的第二个押宝则是:超级AI云。吴泳铭认为,AI Cloud是下一代的计算机。

这一点不难理解。因为,大模型是运行于AI Cloud之上新的OS。这个OS可以满足任何人的需求。每个人都将拥有几十甚至上百个Agent,这些Agent 24小时不间断地工作和协同,需要海量的计算资源。

所以,绝大部分AI能力将以Token的形式在云计算网络上产生和输送。吴指出,Token就是未来的电。

此外,数据中心内的计算范式也在发生革命性改变,从CPU为核心的传统计算,正在加速转变为以 GPU为核心的 AI 计算。新的AI计算范式需要更稠密的算力、更高效的网络、更大的集群规模。

在这个新时代,AI将会替代能源的地位,成为最重要的商品,驱动千行百业每天的工作。

因此,这一切都需要充足的能源、全栈的技术、数百万计的GPU和CPU,协同网络、芯片、存储、数据库高效运作,并且24 小时处理全世界各地的需求。这需要超大规模的基础设施和全栈的技术积累,只有超级AI云才能够承载这样的海量需求。未来,全世界可能只会有5-6个超级云计算平台。

“在这个崭新的时代,阿里云的定位是全栈人工智能服务商,提供世界领先的智能能力和遍布全球的AI云计算网络,向全球各地提供开发者生态友好的AI服务。”

吴泳铭不藏了!大模型时代,阿里要做这两件大事:AI时代的安卓,全球超级AI云!-AI.x社区图片

疯狂的阿里AI

那么野心亮出来了,阿里的底气如何呢?

在keynote的下半场,那张熟悉的面孔再一次向我们秀出阿里的肌肉。

吴泳铭不藏了!大模型时代,阿里要做这两件大事:AI时代的安卓,全球超级AI云!-AI.x社区图片

这一次的云栖大会上的发布,可以说是多到爆炸。阿里CTO周靖人花了近一个小时的篇幅为我们展示了一个AI巨无霸的全系版图。

吴泳铭不藏了!大模型时代,阿里要做这两件大事:AI时代的安卓,全球超级AI云!-AI.x社区图片

周靖人的演讲主要分为两部分,大模型和与云基础设施。

这里因为篇幅关系,不再一一介绍每一款模型。(Ps:实在是多到眼花缭乱。)

比如昨天凌晨发布的Qwen3-next的语言模型以及Qwen3-Omni全模态模型。

编程模型方面,Qwen3-Coder已经成为了全球开发者非常认可的模型。

而就在今天凌晨,Qwen3-Max正式版也一早引起了圈内的试用和好评。

这里值得注意的是,这款阿里最新的通义旗舰模型Qwen3-Max,据介绍,其性能已经超过GPT5、Claude Opus 4等,跻身全球前三。Qwen3-Max包括指令(Iinstruct)和推理(Thinking)两大版本,其预览版已在 ChatbotArena 排行榜上位居并列第三,正式版性能可望再度实现突破。

Qwen3-Max也是通义千问家族中最大、最强的基础模型,预训练数据量达36Ttokens,总参数超过万亿,拥有极强的Coding编程能力和Agent工具调用能力。有一点非常厉害,Qwen3-Max结合工具调用和并行推理技术,其推理能力创下新高,尤其在聚焦数学推理的AIME 25和HMMT测试中,均达到突破性的满分100分,为国内首次。

吴泳铭不藏了!大模型时代,阿里要做这两件大事:AI时代的安卓,全球超级AI云!-AI.x社区图片

多模态模型方面,通义万相家族也上新了。首先是Wan2.5-preview系列模型,涵盖文生视频、图生视频、文生图和图像编辑四大模型。通义万相2.5视频生成模型能生成和画面匹配的人声、音效和音乐BGM,首次实现音画同步的视频生成能力,进一步降低电影级视频创作的门槛。此外,通义万相2.5视频生成时长从5秒提升至10秒,支持24帧每秒的1080P高清视频生成,并进一步提升模型指令遵循能力。

其次,万相迎来了一位特殊的成员:语音大模型通义百聆,包括语音识别大模型Fun-ASR、语音合成大模型Fun-CosyVoice。Fun-ASR基于数千万小时真实语音数据训练而成,具备强大的上下文理解能力与行业适应性;Fun-CosyVoice可提供上百种预制音色,可以用于客服、销售、直播电商、消费电子、有声书、儿童娱乐等场景。

吴泳铭不藏了!大模型时代,阿里要做这两件大事:AI时代的安卓,全球超级AI云!-AI.x社区图片

会上,周靖人还透露了一组数据,Qwen模型已经成为了全球最大的开源模型。

截至目前,阿里通义开源300余个模型,覆盖不同大小的“全尺寸”及LLM、编程、图像、语音、视频等“全模态”,全球下载量突破6亿次,全球衍生模型17万个,稳居全球第一。

此外,周还透露,目前已经超100万家客户接入通义大模型,权威调研机构沙利文2025上半年报告显示,在中国企业级大模型调用市场中,阿里通义占比第一。

阿里如何定义AI时代的“计算机”

如此大的调用规模,面向未来,我们需要怎样的AI基础设施呢?

周靖人给出了阿里云的答案。

在网络层面,阿里云新一代高性能网络HPN 8.0全新亮相。为应对大模型时代对海量数据传输的需求,HPN8.0采用训推一体化架构,存储网络带宽拉升至800Gbps,GPU互联网络带宽达到6.4Tbps,可支持单集群10万卡GPU高效互联,为万卡大集群提供高性能、确定性的云上基础网络,助力AI训推提效。

在存储层面,阿里云分布式存储面向AI需求全面升级。高性能并行文件存储CPFS单客户端吞吐提升至40GB/s, 可满足AI训练对快速读取数据的极致需求;表格存储Tablestore为Agent提供高性能记忆库和知识库;对象存储OSS推出 Vector Bucket,为向量数据提供高性价比的海量存储,相比自建开源向量数据库,成本骤降95%,结合OSS MetaQuery 语义检索和内容感知能力,可快速构建RAG等AI应用。

在AI智算集群层面,智能计算灵骏集群通过多级亲和性与拓扑感知调度设计,基于HPN 网络支持10万卡稳定互联,多级可扩展的架构让每张卡间互联路径更短、带宽更优。灵骏集群面向任务的稳定性设计、故障分钟级恢复能力,有效提高了模型训练任务的集群稳定性。

当然除了这些基础设施之外,阿里的“肌肉实力”远不止这些。

大家都知道,今年是Agent爆发的一年,面向agent开发这一领域。阿里也有了很多重磅发布和开源。

大会现场,阿里云发布全新Agent开发框架ModelStudio-ADK,该框架突破以预定义编排方式开发Agent的局限,可帮助企业高效开发具备自主决策、多轮反思和循环执行能力的Agent。使用ModelStudio-ADK,1个小时就能轻松开发一个能生成深度报告的Deep Research项目。

据了解,过去一年,阿里云百炼平台的模型日均调用量增长了15倍。

而在框架层面,阿里云ModelStudio-ADK基于通义开源的AgentScope打造,可开发深度研究、硬件代理智能体、复杂检索智能体等应用。该框架还全面支持云端部署和云端组件调用,提供企业级、服务稳定、灵活部署和运行的高代码开发模式。  

在模型层面,阿里云百炼持续上线全新通义千问家族旗舰模型。目前,用户可一键调用Qwen、Wan、DeepSeek等200多款业界领先的模型。

在组件层面,面向Agent开发和部署所需的各类组件,阿里云百炼集成了工具连接MCP Server、多模数据融合RAG Server、沙箱工具Sandbox Server、智能记忆存取Memory Server以及支付订阅服务 Pay Server等7大企业级能力。

写在最后

GenAI时代的到来,让几年前增速减缓的技术、市场再一次呈现出爆发的景象。正如今天阿里的股价,一路狂涨逾7%。

我想这次云栖大会跟去年相比,有两点非常的不同:一个是“吴妈”变得更加从容了,对于AI这件事,阿里的路线愈来愈清晰,步子越来越坚实了。这说明阿里的战略方向与战略定力已经取得了世界级的成果,由此带动了国内乃至世界对于开源人工智能的信心。

第二点,则是阿里找到了大模型时代的增长叙事的脉络。

阿里要打造AI时代的安卓系统,阿里云要做全球领先的全栈超级AI云服务商,而后者,世界上大概也不过5、6家。

当然,这篇文章肯定描述不了一个完整的阿里野望。昨天,小编在打车赶往会场的路上,跟通行的人聊起了前不久爆火的“高德扫街榜”、聊起了夸克……

我想那又是AI时代之下,阿里的另外一个惊喜故事了。

本文转载自​​51CTO技术栈​​,作者:云昭

©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
已于2025-9-24 16:26:45修改
收藏
回复
举报
回复
相关推荐