
人们误解了英伟达的真正定位!黄仁勋回应一切:否认AI泡沫,严重低估推理扩展定律;回应循环营收质疑:恨不 原创
编辑 | 云昭
采访 | BG2
出品 | 51CTO技术栈(微信号:blog51cto)
9月下旬以来,大忙人黄仁勋更忙了。先是宣布了跟英特尔的投资合作,而后又传来1000亿美金投资OpenAI的星际之门。
尤其对后者,外界对于英伟达的做法颇有质疑的声音:你把钱投资给OpenAI,然后OpenAI又反过来购买的你芯片。这不是“循环营收”吗?
这个质疑,直接在这周五知名播客栏目BG2中被抛出。
面对犀利的质疑,老黄戴着一副红框眼镜回应道:“营收和投资是两回事。”并进一步解释了自己背后的考量:英伟达从OpenAI自建数据中心背后看到了两个指数级增长机会:
“他们正经历两个指数级增长。第一个是用户数量的指数级增长,因为 AI 变得更好、应用场景更好,几乎所有应用都接入了 OpenAI。这是使用的指数增长。第二个是计算量的指数级增长,每次调用都不再是一锤子买卖,而是要先思考再回答。这两个指数叠加,大幅推高计算需求。”
对话中,主持人 Brad 跟这位英伟达创始人聊了太多AI当下的内幕。
“华尔街预测:2027年英伟达增长会回落到8%的增速以内。”“美国对于中国留学生的吸引力正在直线减弱。”老黄非常认真的做出了回应。“美国需要采取战略计划来吸引最聪明的人,这事关生死存亡。”
当然,重点还是黄仁勋对于英伟达的下一步野望。
“大家对于英伟达的真正定位存在误解。他们记得我们是家芯片公司。没错,我们造芯片,而且造的是世界上最强大的芯片。但 NVIDIA 真正是一家 AI 基础设施公司。我们是你的 AI 基础设施合作伙伴。我们和 OpenAI 的合作就是一个完美示范。”
很明显,大模型的三条扩展定律已经烧到了“推理→思考”市场,英伟达很早就发现了这一定律背后的千万亿倍的市场。
此外,黄仁勋还对马斯克做了点评:他本人就是一个“终极GPU”,同时还将谷歌的“TPU”描述为“很有前瞻性的优势”。
总之,黄仁勋传递了信号:英伟达如此强大、如此自信、如此不可思议,以至于可以跟昔日的竞争对手联手合作。
对于外界一直存在的AI泡沫声音,老黄那句“放马过来!”回应了一切
当然料还很多,在AI商业化前景方面,黄仁勋预计,未来5年内,AI驱动的收入将从1000亿美元增至万亿美元级别。
谈及和OpenAI的合作,黄仁勋表示,OpenAI很可能会成为下一个万亿美元级别的超大规模公司,唯一的遗憾是没有早点多投资一些,“应该把所有钱都给他们”。
关于ASIC的竞争,英伟达放话,即使竞争对手将芯片价格定为零,客户仍然会选择英伟达,因为他们的系统运营成本更低。
未来五年,他很看好人工智能和机电工程的融合,以及AI去理解生物学的无限复杂性方面。
等等。这里不再一一展开。
提醒:由于采访中部分段落敏感尺度较大,这次小编做了必要的删减,见谅。
三条可扩展定律:传统推理是一锤子买卖,但思考扩展定律却被严重低估
Brad:Jensen,很高兴再次回来,当然,还有我的搭档 Clark Tang。你知道吗,我简直不敢相信已经过去这么久了。哦,对了,你的眼镜真不错。非常适合你。问题是,现在大家都会希望你一直戴着它。他们会说,“红眼镜呢?”我可以为此作证。
Brad:自从我们上一次录播客,已经过去一年多了。
Brad:对吧。你现在超过 40% 的收入来自推理。但推理因为“链式思维”已经准备好要爆发了。
黄仁勋:没错。它即将增长十亿倍。对,一百万倍,一十亿倍。没错。这正是大多数人还没完全理解的地方。这就是我们之前谈过的产业,但这次是工业革命。
Brad:说实话,从那以后,我感觉你我每天都像是在延续那期播客的对话。在 AI 的时间里,这一年仿佛过了一百年。我最近又回看了那期节目,里面很多话让我印象很深。其中最让我触动的是你当时敲桌子强调的观点。记得吗,那时候大家对预训练有点悲观,很多人说,“天啊,预训练的终结要来了。”我们是不是建得太多了。
是的,那是大概一年半以前。而你当时说,推理不会只是增长一百倍、一千倍,而是要增长十亿倍。这也把我们带到了今天。你刚宣布了一项重大交易,我们应该从这说起。
黄仁勋:我低估了。让我郑重其事地说一句——我低估了。我们现在有三条扩展定律,对吧?预训练扩展定律、后训练扩展定律。后训练基本上就像 AI 在练习一项技能。练到它能做对。所以它会尝试很多不同方法。为了做到这一点,你必须做推理。所以现在训练和推理在强化学习中整合在了一起,非常复杂。这就是所谓的“后训练”。第三个就是推理。传统推理是一锤子买卖。但新的推理方式,我们更看重的,是“思考”。回答之前要先想一想。对。所以现在我们有三条扩展定律。思考得越久,答案质量就越高。在思考过程中,你会做研究,会去验证一些事实,会学到新东西,然后继续思考,再学更多,最后才生成答案。不要一上来就直接生成。所以,“思考、后训练、预训练”,我们现在有三条扩展定律,而不是一条。
Brad:你去年就知道这些了。但你今年对于“推理能力将提升十亿倍,以及它会把智能带到什么高度”的信心,比去年更强了吗?
黄仁勋:今年我更有信心。原因是现在我们看看这些智能体系统。对吧。AI 不再只是语言模型,而是由多个语言模型组成的系统。它们并行运行,有些在用工具,有些在做研究,对吧?全是多模态的。看看现在生成的视频,简直疯狂。
英伟达投资OpenAI星际之门千亿美金,背后看到了两个指数级增长机会
Brad:这其实把我们带到本周大家都在讨论的一个关键时刻。几天前你宣布的那项和 OpenAI Stargate 的巨额合作。你们将成为优先合作伙伴,并在一段时间内向该公司投资 1000 亿美元。
Brad:他们要建 10 个数据中心。如果这些都使用 NVIDIA 的技术,那英伟达的收入可能高达 4000 亿美元。帮我们理解一下吧,谈谈这项合作对你意味着什么?以及为什么这项投资对 NVIDIA 来说这么合理。
黄仁勋:首先,我先回答最后一个问题,再从头开始讲。我认为 OpenAI 很可能会成为下一个数万亿美元级别的超大规模公司。好吧。为什么称它为超大规模?就像 Meta 是超大规模公司,Google 也是。他们会同时拥有消费级和企业级服务,很可能成为全球下一个数万亿美元的超大规模公司。
既然如此,那么在他们到达那个高度之前投资,这可能是我们能想象到的最聪明的投资之一。而且你必须投资你熟悉的领域。碰巧我们非常了解这个领域。所以这笔投资的回报会非常可观。我们很喜欢这个机会。我们并不是必须投资,也不是被要求投资,而是他们给了我们这个机会。太棒了。
好,现在从头说起。我们和 OpenAI 在多个项目上合作。第一个项目是建设 Microsoft Azure,我们会继续做下去,这个合作进展得非常好。
黄仁勋:我们有好几年的建设要做,仅此一项就是数千亿美元的工作。第二个是 OCI 的建设。我想大概有 5 到 7 个 GW 的规模即将开建。我们和 OCI、OpenAI 以及软银一起做这个。这些项目已经签了合同,正在进行,有很多工作。第三个是 CoreWeave。这里我还是在讲 OpenAI 的合作。好的,一切都在 OpenAI 的语境下。那么,这个新的合作是什么?就是帮助 OpenAI 第一次打造属于他们自己的 AI 基础设施。
所以这是我们和 OpenAI 在芯片层、软件层、系统层、AI 工厂层面的深度合作,帮助他们成为一家完全自主运营的超大规模公司。这会持续很长时间,补充在我们已经在做的所有项目之上。你知道,他们正经历两个指数级增长。第一个是用户数量的指数级增长,因为 AI 变得更好、应用场景更好,几乎所有应用都接入了 OpenAI。这是使用的指数增长。第二个是计算量的指数级增长,每次调用都不再是一锤子买卖,而是要先思考再回答。这两个指数叠加,大幅推高计算需求。所以我们需要建设所有这些项目。这个新的合作,就是在原有的基础上再增加一层支撑,来应对这场前所未有的指数级爆发。
OpenAI自建数据中心是一件大事
Brad:不过你刚才说的有一点让我特别感兴趣。你认为他们极有可能成为万亿美元级别公司,是个极佳的投资机会。与此同时,你们还在帮他们自建数据中心。到目前为止,他们一直依靠微软来建设数据中心,现在他们要自己打造全栈工厂。
黄仁勋:他们希望和我们建立的关系,基本上就像 Elon 和 X 那样。对,Elon 和 X 是自建的。没错。我认为这是一件大事。
Brad:你想想 Colossus 的优势,他们也是全栈自建。这才是真正的超大规模。因为如果他们不用这些算力,可以卖给别人。Stargate 也是一样,他们正在建造巨大的算力容量。他们认为自己会用掉大部分,但同时也能把富余的卖给别人。这听起来就像 AWS、GCP 或 Azure。你说的是这个意思吧?
黄仁勋:是的。我认为他们很可能自己用,就像 X 一样会自己用。但他们想要和我们建立直接的合作关系、直接的采购关系。就像 Zuck 和 Meta 与我们有直接合作;我们和 Sundar 以及 Google 的关系是直接的;我们和 Satya 以及 Azure 的合作是直接的。对吧?所以他们现在已经到达足够大的规模,认为是时候建立这样的直接关系了。我很高兴支持这一点。Satya 知道,Larry 也知道,大家都很清楚。
华尔街:英伟达2027年之后增长基本停滞?黄仁勋回应:我们一直轻松超额完成
Brad:而且大家都很支持。让我觉得有点神秘的是,你刚才提到 Oracle 3000 亿,还有 Colossus 的建设,我们知道各个国家主权基金在建什么,也知道超大规模公司在建什么。Sam 谈的是以“万亿”为单位的投入。但在华尔街,25 位覆盖你们股票的卖方分析师,他们的共识预期是,从 2027 年开始,你们的增长基本停滞。2027 到 2030 年只有 8% 的年增长。这 25 个人的唯一工作,就是预测英伟达的增长率,而且他们拿工资就是干这个的。但他们的预测是这样——当然,你们自己也说对这个预期是“没问题的”。
黄仁勋:对,我们对此没意见。我们一直都能轻松超额完成。
三个要点否认“AI过热”
Brad:我理解。但这里的差距确实很有意思。我每天都在 CNBC、彭博听到这样的声音。他们认为今天的短缺会在 2027 变成过剩,不会再需要那么多。最多他们承认 2026 没问题,但之后就会过剩。他们显然不相信。但我觉得很重要的一点是,你们的共识预测根本没反映这种爆发。我们也基于这些数字做过预测,结果发现,即便 AI 时代已经过去两年半,Sam Altman 说的、你说的、Sundar 说的、Satya 说的,和华尔街的信念之间依然存在巨大分歧。不过你对此好像也很淡定。
黄仁勋:我也不认为这两者矛盾。
Brad:那你解释一下?
黄仁勋:好的。首先,作为建设者,我们的任务就是为机会建造未来。我们是建设者。我给你三个要点思考,这三个要点也许能让你对英伟达的未来更有信心。
黄仁勋:第一点,物理定律层面的,这是最重要的一点:通用计算已经结束,未来属于加速计算和 AI 计算。那要怎么理解?世界上有多少万亿美元的计算基础设施都要更新换代。而一旦更新,就会变成加速计算。第一件事你要认识到:通用计算结束了。这一点没人否认。大家都说摩尔定律已死。大家都同意通用计算的未来就是加速计算。所以我们和 Intel 的合作,就是要把通用计算和加速计算融合,帮他们创造新机会。
黄仁勋:第二点,AI 的第一个应用场景已经无处不在。对吧?在搜索、推荐引擎、购物里都有。过去超大规模计算的底层是 CPU 在做推荐,现在换成 GPU 在做 AI。所以你把传统计算迁移到加速计算和 AI,把传统超大规模迁移到加速计算和 AI,这就是数千亿美元的市场。因为今天全球大约有 40 亿人都在使用 TikTok、Meta、Google,他们的需求都在驱动加速计算。
Brad:完全正确。所以即便不考虑 AI 创造全新的机会,仅仅是它改变了做事方式,就已经足够了。
黄仁勋:没错。然后第三点,我们来谈未来。到目前为止,我说的都算“平常的事情”。就像你不再用煤油灯而用电灯,不再用螺旋桨飞机而用喷气式飞机。这些都只是“换代”。而一旦你进入 AI 和加速计算,新的应用机会才真正出现。这就是我们讨论的 AI 机遇。它会是什么样子?简单的理解方式是:电机取代了劳动力和体力活动,而今天,AI 超级计算机、我所说的“AI 工厂”,会生成 Token 来增强人类智能。而人类智能占全球 GDP 的 55%-65%,大约 50 万亿美元。这个 50 万亿一定会被 AI 增强。
所以我们回到一个具体例子:假设我雇一个年薪 10 万美元的员工,再给他配一个 1 万美元的 AI。如果这个 AI 让他效率翻倍、三倍,那我立刻会用。而且我会在公司每个人身上都这样做。事实上,我们现在就在这么做,每个人都有 AI 协同代理。
英伟达的新野心:要拿下“推理→思考”的市场
Brad:去年,Satya 看起来似乎在收一点,嗯,有人说他是那个“屋子里最清醒的成年人”,在给这些预期降温。几周前,他又说,今年他也建了两个 gig(gigawatt 级别的数据中心/算力部署),未来要加速。
你觉得一些传统的超大规模厂商,过去可能比 CoreWeave、Elon 的 X,或者 Stargate 动作更慢一些的,现在是不是也都——至少在我看来——在加大投入,开始加速了?因为出现了第二个指数曲线。
黄仁勋:没错。我们已经经历了一个指数增长,那就是 AI 的采用率和使用率在指数式增长。是的。第二个指数增长点,就是“推理”。
黄仁勋:这是我们一年前的对话。一年前。对。我们当时说过:一旦你让 AI 从“一次性”的东西“背答案”和泛化,本质上就是预训练。比如背答案,“8 乘以 8 等于多少?”背下来就行了。所以背答案、泛化,那就是一次性的 AI。
然后,一年前,推理出现了。Tooluse 出现了。于是你就有了会“思考”的 AI。十亿倍的提升。这会消耗更多算力。某些超大规模客户,正如你说的,他们本来就有内部工作负载需要从通用计算迁移到加速计算,所以他们在周期内持续建设。可能有些超大规模厂商的负载不同,不确定自己能多快消化。这没错。现在大家都得出结论:自己大大低估了需求。我的一个最喜欢的应用,就是老派的数据处理。很快我们就会宣布一个非常重大的“加速数据处理”计划。数据处理代表了当今世界上绝大多数 CPU 的使用场景。
黄仁勋:它现在仍然完全运行在 CPU 上。比如你去 Databricks,基本都是 CPU。Snowflake,大部分也是 CPU。Oracle 的 SQL 处理,也主要靠 CPU。大家都用 CPU 来处理 SQL、结构化数据。未来,这一切都会迁移到 AI 数据处理。这是一个巨大无比的市场,我们要去拿下。但这需要——NVIDIA 做的所有事都需要加速层,以及特定领域的数据处理。
循环营收:投资OpenAI,然后OpenAI又反过来买N卡,回应:很早就想投了,遗憾当时太穷
Brad:但也有质疑的声音——比如昨天我打开 CNBC,他们在说“供过于求、泡沫”;我打开 Bloomberg,他们在说“循环营收”。嗯哼。给大家解释一下,所谓循环营收,就是公司之间签订虚假交易,在没有真实经济实质的情况下虚增营收。换句话说,增长不是靠客户需求,而是靠财技包装。大家最常提的案例,就是 25 年前的思科和 Nortel 泡沫。所以当你们、微软或亚马逊投资那些也是你们大客户的公司——比如你们投资 OpenAI,而 OpenAI 又买走数百亿美元的芯片——能不能提醒我们、提醒大家,那些 Bloomberg 的分析师到底搞错了什么?
黄仁勋:10 吉瓦大概就是 4000 亿美元,对吧?对。差不多。而这 4000 亿美元,大部分必须靠他们的收入来支持——而收入在指数式增长。同时要靠他们通过股权融资筹来的资本,以及能借到的债。这三条路。他们能筹到的股权、能借到的债务,都和外界对他们收入可持续性的信心相关。没错。所以聪明的投资人和放贷方会权衡这些因素。这是他们的事,不是我的业务。当然,我们必须紧密跟进,确保我们能支持他们的持续增长。所以营收和投资是两回事。投资跟营收没关系,那只是一个投资机会。就像我们刚才说的,这很可能会成为下一个数万亿美元的超大规模公司。谁不想投资呢?我唯一的遗憾是,当初他们邀请我们投资时,我们太穷了。我们当时太穷了,投得太少。我应该把我所有的钱都给他们。
Brad:现实是,如果你们没把芯片做好,比如 Vera Rubin 出来不行,他们完全可以去买别家的芯片放进数据中心。对吧?没任何义务一定要用你们的芯片。就像你说的,你们是把这当成一个机会型股权投资。顺便说,你们已经做了很多非常成功的投资。
黄仁勋:对,我得说一下。我们投了 xAI,投了 CoreWeave。非常聪明,对吧?对,太聪明了。
Brad:而且,从根本上讲,你们做的是有真实经济价值的事,而不是两家公司之间互相倒腾收入。比如,ChatGPT 每个月都有大量用户付费,15 亿月活用户在用。对。你刚才也说了,全世界的企业要么上车,要么淘汰。每个国家都把这看作和核能一样重要的国家安全与经济安全议题。
黄仁勋:没错。哪个人、企业或国家会说“智能对我们来说是可选项”?不会的。这是基础。它是智能的自动化。
英伟达护城河一:极限协同设计
Brad:好,我已经把需求问题问透了。我们聊聊系统设计。我待会儿想让 Clark 来说下。2024 年,你们在 Hopper 上切换到一年一更的发布节奏。2025 年你们推出 Grace Blackwell,需要对数据中心大规模改造。2026 年下半年会有 Vera Rubin。2027 年 Ultra,2028 年 Feynman。这个一年一更的节奏现在怎么样?你们当初为什么要做这个切换?NVIDIA 内部的 AI 是否让你们能实现这样的节奏?
黄仁勋:是的。回答上一个问题,如果没有 AI,NVIDIA 的速度、节奏和规模会受到限制。如今没有 AI,我们就根本不可能造出现在的产品。那么我们为什么要这么做?还记得吗,Eddie 在财报或大会上说过,Satya 也说过,Sam 也说过:token 的生成率在指数式上升。对。客户使用率也在指数式上升。他们大概有 8 亿周活用户,对吧?对。这距离 ChatGPT 发布还不到两年。
Brad:而且每个用户生成的 token 量也大幅增加,因为用了推理。
黄仁勋:所以第一点是,由于 token 生成率指数叠指数上升,我们必须在性能上实现惊人的提升,否则 token 生成成本会越来越高。因为摩尔定律已经失效,对吧?对。晶体管的成本每年基本不变,功耗也差不多。在这种情况下,除非我们创造新技术把成本降下来,否则就算你每年便宜几个百分点,也根本无法抵消两个指数的增长。所以我们必须每年大幅提升性能,才能跟上指数曲线。
黄仁勋:比如从 Kepler 到 Hopper,大约 10 年,性能提升了 10 万倍,那是 NVIDIA AI 旅程的起点。Hopper 到 Blackwell,仅靠 NVLink 72,一年就提升了 30 倍。接着 Rubin 又会再来一次飞跃,Feynman 也会再来一次。而这之所以可能,是因为晶体管已经帮不上多少忙了。摩尔定律大体上只剩下密度在提升,但性能没什么提升。所以我们必须把整个问题拆到系统层级,同时改 CPU、GPU、网络芯片、NVLink 的 scale-up、Spectrum X 的 scale-out,所有芯片、软件栈、系统都同时革新,做到极限的“协同设计”。以前从没人在这种规模上做过。
黄仁勋:我们改变 CPU,重新定义 CPU,重新定义 GPU,网络芯片,NVLink 的纵向扩展,Spectrum X 的横向扩展。有人说过,“啊,那只是以太网。”不是的。Spectrum X 的以太网可不是普通以太网。人们现在才发现,x-factor 的威力太惊人了。对。NVIDIA 的以太网业务是全球增长最快的以太网业务。对。然后我们必须建更大的系统,把多个 AI 工厂互联起来。并且我们要以一年一更的节奏推进。所以我们自己也在走指数叠指数的技术曲线。这让客户能不断降低 token 成本,让 token 更聪明,前训练、后训练、推理都更强。结果是,AI 越聪明,使用就越多,使用越多,增长就越快。
Brad:给不太熟悉的人解释一下,“极限协同设计”是什么意思?
黄仁勋:极限协同设计就是必须同时优化模型、算法、系统和芯片,要跳出“盒子”创新。摩尔定律的逻辑是:只要让 CPU 越来越快,一切都会快,你就在盒子里创新。就是把芯片做快。
黄仁勋:但如果芯片快不起来了,你还能怎么办?那就得跳出盒子创新。嗯哼。所以 NVIDIA 做了两件事改变了格局:我们发明了 CUDA,发明了 GPU,还发明了大规模协同设计的理念。嗯哼。这就是为什么我们进入了这么多行业。我们在打造各种库、做协同设计。第一,极限协同不仅仅是软件和 GPU,而是扩展到整个数据中心层面,包括交换机、网络、交换机里的软件、网卡、scale-up、scale-out,跨这些层面做优化。
结果就是,从 Hopper 到 Blackwell 的性能提升是 30 倍。摩尔定律根本做不到。对。这就是“极限”。
这就是极限协同的成果。也正因为如此,NVIDIA 才进入了网络、交换机、scale-up、scale-out、scale-across,还造 CPU、GPU、NIC。我们才会有这么丰富的软件生态。我们在开源社区的代码贡献量,几乎比所有公司都多,只有一家能比我们多,我记得是 AI2。
黄仁勋:所以我们有庞大的软件积累,而且这还只是 AI 相关的。别忘了还有计算机图形学、数字生物学、自动驾驶。我们公司产出的软件量是惊人的。嗯哼。这让我们能做到深度、极限的协同设计。
英伟达的护城河二:极致的规模
Brad:我听说过一个竞争对手的说法:你们这么做,一方面确实能降低 token 生成成本,但另一方面,你们一年一更的节奏,也让竞争对手几乎追不上。因为你们给了供应链三年的可见性,所以供应链更有信心去扩产。你怎么看?
黄仁勋:等等,在你提问前,先想想这个。对。要想每年支撑几千亿美元规模的 AI 基础设施建设,想想我们一年前得提前准备多少产能。我们说的是数千亿美元规模的晶圆启动和 DRAM 采购。你们能想象吗?对。
这已经是一个几乎没有任何公司能跟上的规模了。
Brad:那么你会说,你们的竞争护城河比三年前更宽了吗?
黄仁勋:首先,现在的竞争对手比以往更多,但难度也比以往更大。我之所以这么说,是因为晶圆的成本越来越高,这意味着如果你没有在极端规模上进行协同设计(co-design),就根本不可能实现那种“X 倍数”的增长。这是第一点。所以,除非你一年里能同时搞六七八颗芯片,否则是不可能的。而这正是一个了不起的事情。
Clark Tang:嗯哼。
黄仁勋:这不是在造一颗 ASIC,而是在造一个 AI 工厂系统。这个系统里有很多芯片,它们都是协同设计的。只有这样,才能带来我们几乎常态化实现的 10 倍增长。第一点是极致的协同设计。第二点是极致的规模。当客户部署一个吉瓦(gigawatt)的系统,那意味着 40 万到 50 万颗 GPU。要让 50 万颗 GPU 一起运作,本身就是个奇迹。真的,这是个奇迹。客户在你身上承担了巨大的风险才去买这些东西。你得问自己,有哪个客户会在一个全新的架构上下注 500 亿美元?对,一个全新的架构。
黄仁勋:是的,你刚刚才 tape out(一种芯片定稿工序)了一颗新芯片。你自己兴奋得不得了,大家也替你开心。但谁会在这种时候给你一张 500 亿美元的订单?对吧?为什么要为一个刚刚 tape out 的芯片开启 500 亿美元的晶圆生产?但对 NVIDIA 来说,我们能做到这一点,因为我们的架构已经被证明极其可靠。我们的客户规模巨大,我们的供应链规模也已经不可思议。对吧?谁会愿意为一家企业提前开动这么多生产、提前预置这么多产能,除非他们知道 NVIDIA 能够兑现交付?而且他们相信我们能够交付给全球所有客户。所以他们愿意一下子开启数千亿美元的投入。这就是规模的力量。
赞TPU:很有前瞻性
Clark Tang:说到这点,全球最大的一个争论就是 GPU 还是 ASIC。Google 的 TPU,Amazon 的 Tranium。似乎从 ARM 到 OpenAI 再到 Anthropic,都传闻在自研芯片。去年你说过,你们造的是系统,不是单颗芯片,你们是通过整个栈的各个环节去驱动性能提升。你当时还说过,很多项目根本不会量产。
黄仁勋:大部分都不会。
Clark Tang:对,大部分都不会。但考虑到 Google TPU 的成功,你今天怎么看这个不断演变的格局?
黄仁勋:首先,Google 的优势在于前瞻性。记住,他们在一切开始之前就已经启动了 TPU v1。这和创业公司没什么两样。创业公司应该在市场爆发前就诞生,而不是等市场规模已经达到数万亿美元时才入场。有一种谬论,很多 VC 也常常讲:大市场里只要拿到几个百分点份额,就能成就一家巨头。实际上,这是根本错误的。
黄仁勋:你应该是拿下一个小市场的 100%,这正是 NVIDIA 做的事,TPU 也是这样。那时只有我们两个,但你得祈祷这个小行业未来真的会变大。
AI的记忆是个大问题,英伟达的视角早已不再是GPU
Brad:你们是在创造一个产业。这正是 NVIDIA 的故事。也是 ASIC 研发者如今的挑战。
黄仁勋:没错。表面上看,这个市场很诱人。但要记住,这个市场是从一颗叫 GPU 的芯片,演变成了我刚才描述的 AI 工厂。你们刚看到,我发布了一颗叫 CPX 的芯片,用于上下文处理和视频生成扩散。这是个非常专门的任务处理器,但却是数据中心里很重要的任务。
我也暗示了,也许未来会出现 AI 数据处理专用芯片。因为你需要长期记忆、短期记忆,KV cache 的处理非常密集。AI 的记忆是个大问题,对吧?你当然希望 AI 有好的记忆。而处理整个系统的 KV 缓存是一件非常复杂的事情,也许这就需要一颗专门的处理器。也许还会有其他需求。所以你看,NVIDIA 的视角已经不再是 GPU,而是整个 AI 基础设施:要让这些了不起的公司能够把他们多样化、不断变化的负载跑起来。
看看 Transformer 架构的演变有多快。如果不是 CUDA 足够易用,足够灵活,他们怎么可能测试海量的实验,决定到底采用哪种 Transformer 版本、哪种注意力机制?CUDA 之所以重要,就是因为它可编程。
所以看今天的格局,当很多 ASIC 项目在三四五年前启动时,那时的行业还很单纯可爱,就是 GPU 的事。但现在规模庞大且复杂。再过两年,它会变得完全庞然大物。此时想作为一个新进入者去争夺市场,就非常艰难。
Clark Tang:即便那些在 ASIC 上有点成果的客户,他们的算力集群是不是也需要平衡?投资人往往是二元思维,要么是,要么不是。但即便 ASIC 有效,是不是也得有个最优平衡?比如他们买 NVIDIA 的平台,而你们又会不断发布新的芯片,比如 CPX,针对预填充、视频生成、解码、转码……NVIDIA 的生态会有更多模块加入。随着新工作负载出现,加速计算集群也会随之扩展。
Brad:换句话说,Google 依然是个大 GPU 客户。
黄仁勋:对,Google 是个大 GPU 客户。Google 是个很特殊的案例,必须给予他们应有的尊重。TPU 已经到第七代了。这对他们来说也是个巨大的挑战。他们的工作极其艰难。
黄仁勋:记住,芯片有三类
黄仁勋:所以首先要记住,芯片有三类:第一类是架构型芯片,比如 x86 CPU、ARM CPU、NVIDIA GPU。这类芯片有生态系统,有丰富的 IP 和复杂的技术,由拥有架构的公司来打造。第二类是 ASIC。我当年就在 LSI Logic,这家公司发明了 ASIC 的概念。但 LSI Logic 今天已经不在了。
黄仁勋:原因是 ASIC 很适合小市场。但一旦市场变大,就会转向 COT(Customer Owned Tooling,客户自有工艺)。比如苹果的手机芯片,体量大到不可能去给别人留 50%、60% 的毛利做代工。TPU 最终也会走向 COT,这是毫无疑问的。当然,ASIC 还是有它的舞台。视频转码不会太大,SmartNIC 也不会太大。所以一家 ASIC 公司里有十几个项目我并不惊讶,很多其实是 SmartNIC 或转码器,不全是 AI 芯片。如果有人做个专用推荐系统的嵌入式处理器,那当然也能做成 ASIC。但如果你要造的是整个 AI 的核心算力引擎,这就非常复杂了。因为 AI 的任务多样:有低延迟的,有高吞吐的,有聊天生成的,有复杂推理的,有视频生成的。那才是加速器的主干。
Clark Tang:而这正是 NVIDIA 所做的。
Brad:我换个通俗点的说法吧。那些今天做 ASIC 的人,其实是在下跳棋。而你们在下国际象棋。因为 ASIC 只是整个机器的一个零件,而你们打造的是一整套复杂的平台、系统、工厂。而且你们现在还在拆分,对吧?比如 CPX GPU,就是在把负载拆分到最合适的硬件去执行。
黄仁勋:没错。我们发布了一个叫 Dynamo 的东西——分布式 AI 工作负载编排系统。而且我们开源了它。因为未来的 AI 工厂就是分布式的。
Brad:你们还发布了 NV Fusion。甚至对竞争对手都开放了。包括你们刚投资的 Intel。这意味着,如果某家公司有足够优秀的产品,终端用户愿意替换掉 ARM GPU 或者替换掉你们的推理加速器,就可以直接插入到你们正在构建的 AI 工厂里。对吗?跟我们多说一点吧。
黄仁勋:NVLink Fusion。这是个非常棒的主意。我们很高兴能和英特尔在这方面合作。它把英特尔的生态系统——你知道,全世界大部分企业依然运行在英特尔之上——和 NVIDIA 的 AI 生态系统、加速计算生态系统融合在一起。
黄仁勋:我们之前也和 ARM 做过类似的事情,对吧?接下来我们还会和其他几家合作。这为双方都打开了机会。是一个双赢,巨大的双赢。我会是他们的大客户,他们也会把我们带到更大得多的市场机会上去。对。
Brad:这也和你提出过的一个观点高度相关,这个观点其实震撼了不少人。你说,我们的竞争对手在造 ASIC。他们的芯片今天就已经更便宜了,甚至他们可以直接定价为零。我们的目标就是:即便他们把价格降到零,你依然会买 NVIDIA 的系统。因为整个系统的运行成本——电力、数据中心、厂房土地等——以及最终产出的智能价值,仍然比买一颗即使免费的芯片要划算。
黄仁勋:因为光是土地、电力和厂房壳体就已经要 150 亿美元了。对吧?
Brad:我们试着做过一些数学推演,但请你来解释一下。因为对于没花太多时间研究的人来说,这个逻辑根本算不过来。怎么可能在你们的芯片价格那么高的情况下,把竞争对手的芯片按零成本计算,最终还是你们更划算?
黄仁勋:这里有两种理解方式。第一种,从收入的角度来看。大家的限制条件都是电力。
假设你能多获得 2 吉瓦电力。那么这 2 吉瓦电力你当然希望能转换成收入。
如果我的性能,或者说“每瓦特 Token 数”,是别人每瓦 Token 的两倍,因为我做了深入极致的协同设计,所以我的单位能量性能远高,那么我的客户就能从他们的数据中心里产出两倍的收入。
谁不想要两倍的收入呢?即使别人给你 15% 的折扣,比如我们和他们的毛利差距是 75 个百分点对 50-65 个百分点,这个差距远不足以弥补 Blackwell 和 Hopper 之间 30 倍的性能差。
就算假设对方的 ASIC 等同于 Hopper,Blackwell 也有 30 倍差距。那你在这 1 吉瓦电力上得放弃 30 倍的收入,代价太大了。所以即便他们把芯片送你,你也只有 2 吉瓦电力可用,你的机会成本高得惊人,你一定会选择每瓦性能最优的方案。
Brad:我从某家超大规模公司的 CFO 那里听说过类似的事。他们说,鉴于你们芯片带来的性能提升,特别是每吉瓦 Token 数的提升,而电力是瓶颈,他们必须升级到新一代周期。那么当你展望 Rubin、Rubin Ultra、Feynman,这条曲线会延续下去吗?
黄仁勋:我们现在一年造六七款芯片,这些芯片是作为一个系统来工作的。整个系统里软件无处不在。要通过六七款芯片的整合和优化,才能实现 Blackwell 的 30 倍性能提升。对。想象一下我每年都在做这样的事。咚咚咚咚咚,一年接一年。所以如果你在这个“芯片汤”里只造一个 ASIC,而我们在整个“芯片汤”里跨代优化,这问题就很难解。
英伟达要做AI基础设施供应商,不再只是GPU,主持人:10万亿美元市值?
Brad:这也让我回到最初的问题:竞争壁垒。我们和投资人关注你们很多年了,整个生态的公司我们都有投,包括你们的竞争对手,比如 Google 和 Broadcom。但如果从第一性原理看,你们是壁垒在加深还是在削弱?你们转向年度迭代节奏,你们和供应链协同开发,规模远超任何人预期,这既需要资产负债表的规模,也需要开发能力的规模。你们通过收购和自研(比如 NVLink Fusion 或我们刚提到的 CPX)做的动作,加在一起让我觉得你们的竞争壁垒其实在加深,至少在建造“工厂”或“系统”层面是这样。很令人惊讶。但有趣的是,你们的市盈率却比很多公司低。我觉得部分原因是“大数定律”,大家觉得一个 4.5 万亿美元的公司不可能更大了。但我一年半前也问过你:今天再来看,市场对 AI 工作负载的预期是 5 倍甚至 10 倍增长,我们也知道 CapEx 在飙升。那么在你看来,有没有可能 5 年后你们的营收不是现在的 2-3 倍?换句话说,营收不大幅超过今天的概率有多大?
黄仁勋:我这么回答吧。我们的机会,正如我刚才描述的,远远大于市场共识。
Brad:我在这里要直说:我认为 NVIDIA 很可能会是第一个 10 万亿美元市值的公司。我在这里待得够久了——就在 10 年前,大家还说不可能有万亿美元公司。现在我们已经有 10 家。对吧?但今天世界更大了。今天回到 GDP 指数增长率的逻辑,市场空间就是更大。
黄仁勋:世界更大。而且人们误解了我们的定位。他们记得我们是家芯片公司。没错,我们造芯片,而且造的是世界上最强大的芯片。但 NVIDIA 真正是一家 AI 基础设施公司。我们是你的 AI 基础设施合作伙伴。我们和 OpenAI 的合作就是一个完美示范。
Brad:没错。
黄仁勋:我们就是他们的 AI 基础设施伙伴。我们和很多公司合作方式多样。你不用全买我们的,不需要买满一整机柜。你可以买一颗芯片,一个组件。可以买我们的网络设备。也有人只买我们的 CPU,只买我们的 GPU,然后配别人的 CPU 和网络。都没问题。我们卖什么都行。我唯一的请求就是——至少买点什么,好吗?
马斯克本身就是一个“终极GPU”
Brad:你说过,这不仅是更好的模型,还需要世界级的建设者。你还说,也许我们国家最顶尖的建设者就是 Elon Musk。我们谈到过 Colossus I,他在那里部署了几十万颗 H100、H200,组成一个一致性集群。现在他在做 Colossus II,可能是 50 万张 GPU,数百万 H100 级别的算力,组成一个一致性集群。
黄仁勋:我一点也不会惊讶,如果他一年之内就先于所有人达到 1 吉瓦算力。
Brad:对。谈谈这件事吧:作为一个不仅做软件和模型,还懂得如何建造这些集群的建设者,他的优势是什么?
黄仁勋:你知道,这些 AI 超级计算机非常复杂。技术复杂,采购复杂——因为有融资问题。选地、供电、建厂房壳体、供能都很复杂。建设、部署、点亮一切——毫无疑问,这是人类历史上最复杂的系统工程。而 Elon 的巨大优势在于,这些系统如何互操作、彼此依赖,全都在他脑子里,包括融资。
黄仁勋:所以……他本身就是个大 GPT。对,他就是个超级计算机,是终极 GPU。他在那里有很大优势。而且他有极强的紧迫感。他真的想要建成。所以当意志与能力结合在一起时,非凡的事情就会发生。相当独特。
为什么需要建设主权AI?
Brad:你长期参与的一件事是——我想谈谈“主权 AI”。也想谈谈中国,以及全球 AI 竞赛。
Brad:回头看 30 年前的你,当时绝对想不到今天会在宫殿里和酋长、国王会面,常常出入白宫。总统说你和 NVIDIA 对美国国家安全至关重要。把这放在背景下看,很难想象如果各国元首不把这件事当成“生死攸关”,你会出现在这些场合。这有点像 20 世纪 40 年代的核项目。当时是“曼哈顿计划”。今天没有政府出资的曼哈顿计划,但 NVIDIA、OpenAI、Meta、Google 都在自掏腰包。我们今天有一些公司规模堪比国家,感谢美国吧,这些公司正在投资被各国总统和国王视为事关未来经济和国家安全的项目。你同意吗?
黄仁勋:没有人需要原子弹,但每个人都需要 AI。
黄仁勋:这就是巨大的不同。AI 是现代软件。从通用计算到加速计算,从人类逐行编程到 AI 自动写代码。我们已经重塑了计算。这不是地球上出现了新物种,而是我们重塑了计算。而计算是所有人都需要的,必须普及化。这就是为什么各国都意识到必须进入 AI 时代,因为没有人能退出计算世界。没有谁会说:昨天我用计算机,明天我就回去用棍子和火吧。大家都要进入计算,只是现在计算在现代化,仅此而已。
第一点,要参与 AI,你必须在 AI 里注入你的历史、文化、价值观。当然,AI 越来越聪明,核心 AI 也能很快学到这些,不需要从零开始。所以我认为每个国家都必须具备一定的主权能力。我建议他们都用 OpenAI,都用 Gemini、Grok。我也建议大家都用 Anthropic。但与此同时,他们也应该投入资源学习如何自己建 AI。不只是大语言模型,还要建工业模型、制造模型、医疗模型、国防模型。很多智能需要自己培养。所以主权能力是必要的。每个国家都应该发展。
Brad:这就是你在全球听到的?他们都意识到了?
黄仁勋:是的,他们都会是 OpenAI、Anthropic、Grok、Gemini 的客户。但他们同样需要建设自己的基础设施。这就是 NVIDIA 的角色——我们建的是基础设施。就像每个国家都需要能源基础设施、通信和互联网基础设施,现在每个国家都需要 AI 基础设施。
Brad:我还想说,在我看来,像萨克斯以及美政府里的一些人其实都知道,我们必须去吸引全世界最优秀的人才。我们不能牺牲这个品牌的伟大。收取 10 万美元,或者说降低到 5 万美元,不管具体是多少,看起来都会让天平倾向于那些大公司——因为他们有能力替这些人买单。而对初创公司来说,本来人才就已经很贵了,现在我还得额外付这笔费用,挑战更大。
黄仁勋:这还会带来一个意想不到的后果:它可能会加速投资流向美国以外的地区。对吧?所以说会有一些意想不到的结果。但就像我说的,要从某个地方开始,逐步朝正确的答案迈进。很多时候人们想要直接从一个错误的答案、错误的处境,跳到完美的答案——但完美答案很难找到。先从某个地方开始吧,这就是企业家的方式。
应该创造条件吸引最聪明的人才
Brad:我听一位在美国顶尖实验室工作的中国研究员说,三年前,中国顶尖 AI 专业的毕业生中,有 90% 想来美国,他们也确实来了美国,在我们的实验室工作。但他说现在,这个数字可能只有 10% 或 15% 了,直线下降。
黄仁勋:这正是我们担心的问题。
Brad:是啊,你有看到这种趋势吗?你同时关注两个市场,你观察到这种情况了吗?我们需要做些什么才能扭转?
黄仁勋:我们确实看到中国学生在是否留下的问题上有更大的顾虑。很多人是来这边读书的,但他们在考虑毕业后去别的地方,很多人想去欧洲。所以我觉得我们必须对此非常非常重视。这是一个关乎未来生存的危机信号,是未来问题的早期迹象。
黄仁勋:对。聪明人想来美国,聪明学生想留下来,这是我会称之为 KPI 的指标。它们是未来成功的早期信号。
Brad:我把它类比成勇士队。如果他们能招募到 NBA 最好的球员,就能不断赢得总冠军。但一旦他们的招募渠道受损,或者品牌受损,就无法再吸引到未来最好的球员,那就赢不了总冠军了。就是这个道理。
黄仁勋:没错。
Brad:要成为一个欢迎最优秀人才的地方,要有战略计划来吸引他们,并且确保这是他们最想工作的地方。
谈跟英特尔合作:放马过来就好,我们就是这么自信、这么强大
黄仁勋:是的,因为我们就是这么有自信。因为我们就是如此强大,因为我们就是如此不可思议。你知道的,我和生态圈里的同行合作毫无问题。注意,我们刚刚做了一个终极交易:和英特尔合作。这家公司几乎一辈子都在试图把我们赶出市场,但我和他们合作毫无障碍。原因在于,第一,放马过来。第二,未来远比现在更伟大。这不必是“我们或他们”,完全可以是“我们和他们”。不管怎样,放马过来。
三件大事:美国重回制造业、AI弥合技术门槛、AI改变了工作
黄仁勋:特朗普总统做了几件极其重要的事,让所有人都能跟上。第一件就是美国再工业化。特朗普总统、Lutnik 部长都全力推动,鼓励企业在美国本土建厂、投资工厂、对产业工人进行再培训和技能提升。这对国家来说价值极大。这意味着,不再只是你必须拿个博士学位,或者必须进顶尖名校,才有资格过上好生活、赚得体面的收入。我们必须改变这种逻辑,这是没有道理的。我们要尊重手艺。
黄仁勋:我热爱那些用双手创造的人。而现在我们要重新回到制造,制造伟大而不可思议的东西。我喜欢这一点。这将改变美国,毫无疑问。长期以来,有整个产业带、整个社会群体被遗忘了,因为我们把一切都外包出去了。当然,我不是说我们要把所有东西都收回本土来生产。比如,有人争论要不要在美国生产运动鞋和牙签,这就是把本来很有意义的讨论拉到一个荒谬的层面。我们要认识到,美国再工业化本质上会是一次彻底的变革。这是第一点。
没错。然后就是 AI。它是史上最大的“平衡器”。想象一下,现在人人都能拥有一个 AI。这是终极的平衡器。它消除了技术鸿沟。记得过去,谁要想通过计算机来获得经济或职业收益,就必须学会 C++、C,至少要学 Python。现在,他们只需要学会说人类的语言就够了。如果你不会写 AI 程序,你可以对 AI 说:嗨,我不会写 AI 程序,我该怎么做?AI 会给你解释,甚至直接帮你写。它会替你完成。所以,这太神奇了。我们现在是用技术来弥合技术差距。每个人都必须参与其中。OpenAI 已经有 8 亿活跃用户了,但实际上应该是 60 亿,甚至 80 亿。
所以,我认为这是第一和第二件大事。第三件是,AI 将会改变任务。很多人搞混了一点:会有很多任务被消灭,但也会创造很多新任务。对很多人来说,他们的工作反而能得到保障。比如,我一直在用 AI,你也在用,我的分析师、我的工程师,每个人都在持续使用 AI。与此同时,我们还在招更多工程师,招更多人。原因很简单:我们有了更多想法。因为公司变得更高效,我们变得更富裕,所以我们能雇佣更多人去追逐这些新想法。认为“AI 出现就意味着大规模失业”的观点,其实预设了一个前提:我们人类已经没有事情可做了。我们今天正在做的一切,就是终点了。
黄仁勋:如果有人替我完成了一件任务,我就少了一件任务做。难道我要坐在那里干等吗?你知道的,等退休、坐在摇椅上摇来摇去,这种想法对我来说毫无意义。对吧。所以我认为,智慧不是零和游戏。让我身边有越多聪明人、天才,反而我就会有越多的想法,能想象出越多可以去解决的问题,能创造出越多的工作,带来越多的岗位。所以我觉得,我不知道一百万年后的世界会是什么样子,那留给我的孩子去面对。但在接下来的几十年里,我的感觉是经济会继续增长,大量新工作会被创造出来。每个工作都会被改变,有些工作会消失,但我们不会回到在大街上骑马的年代。这些都会好的。
5年、30年后的世界:AI和机电工程、生物学的融合
Brad:人类向来对“复利系统”持怀疑态度,而且对这类系统的理解很差。对指数级增长系统的理解更糟糕,尤其是当规模越大,增速越快时。我们今天已经谈了很多关于“指数”的问题。伟大的未来学家雷·库兹韦尔曾经说过,在21世纪,我们不会只有100年的进步,而是可能会有相当于两万年的进步。对吧。你刚才说过,我们非常幸运生活在这个时代,并能为这个时代做贡献。我不会要求你去预测10年、20年或30年后的情况,因为那太难了。但如果我们想到2030年,比如机器人呢?
黄仁勋:30年比2030年更容易。
Brad:好吧,那我允许你往后看30年。我之所以喜欢短期的时间框架,是因为它必须把“比特与原子”结合起来。
Brad:比特和原子——构建这些东西最难的部分。因为所有人都说它会发生——“满足”很有趣,但并没有什么帮助。
Brad:没错。但如果我们真的有“两万年的进步”,请你来反思一下库兹韦尔的这句话,来反思指数系统,以及我们所有的听众,不管你在政府、在创业公司,还是在大公司里,都必须去思考变化的加速度、增长的加速度,以及如何在这个新世界里与AI共智。
黄仁勋:嗯,有很多事情,很多人已经说过了,也都很有道理。我认为,在未来五年里,最酷、将要被解决的问题之一就是人工智能和机电工程——机器人学的结合。所以我们会有AI机器人在我们身边走来走去。这点大家都知道。我们都会跟自己的R2D2(注:电影《星球大战》中的小机器人)一起长大。是的。那个R2D2会记住我们的一切,引导我们一路走下去,成为我们的伙伴。这点我们已经知道了。而且,每个人在云端都会有属于自己的GPU,全世界有80亿人,就可能有80亿个GPU,这是个可行的结果。对吧。而且每个人都会有一个为自己微调过的模型。那AI不仅存在于云端,还会被赋予各种各样的形态:在你的汽车里、在你的机器人里、无处不在。所以我觉得这是个完全合理的未来。
再比如,去理解生物学的无限复杂性,理解它的系统,能够预测它,并为每个人建立“数字孪生体”。就像我们在亚马逊购物时有数字孪生体一样,为什么我们在医疗健康上不会有?当然会有。所以,一个能预测我们将如何衰老、可能得什么病、明天或下周会发生什么事的系统——当然会有。这些都是必然的。
确保自己早些上车,确保AI是全民的胜利
我觉得更多的是,很多CEO现在会问我的问题是:既然这些都会发生,那接下来该怎么办?我认为答案其实很常识化。对吧?如果你有一列火车,它正在加速,而且要进入指数级加速,那么你唯一需要做的就是先上车。一旦上车了,你会在路上想清楚一切。如果你非要预测这辆火车未来会在哪儿,去提前瞄准它、等在路口,那是不可能的。因为它每秒都在指数级加速。所以,你要做的就是趁它还比较慢的时候赶快上车,然后随着它一起进入指数级加速。
Brad:很多人以为这一切是突然发生的。你在这个领域已经奋斗了35年。
我记得在2005或2006年左右,Larry Page说过,Google的最终形态就是机器,能够在你还没提出问题之前预测出你要问什么,并直接给出答案,而你不需要去查找。我还记得在2016年,有人问比尔·盖茨:互联网、云计算、移动、社交……这些不是都已经发生了吗?他回答说,我们还没开始。他说:真正的开始,是当机器从“愚蠢的计算器”变成能自己思考、能和我们一起思考的存在。没错。那就是我们现在所处的时刻。
我认为,有像你、Sam、Elon、Satya这样的领导者,是我们国家巨大的优势。我们知道这大概率会对大多数人带来好处,但过程中也会有挑战。我们会逐一应对,提升每个人的生活底线,确保这不是少数硅谷精英的胜利,而是全民的胜利。别吓到他们,要带他们一起走。
参考链接:https://www.youtube.com/watch?v=pE6sw_E9Gh0&t=1816s
本文转载自51CTO技术栈,作者:云昭
