英伟达3个月卖出800吨H100!老黄竟自曝万亿GPU霸主「三无」策略

人工智能 新闻
有分析公司算出来,才三个月英伟达就卖出了800多吨H100。然而市值已超万亿的英伟达,竟是一个「无计划、无汇报、无层级」的公司。

仅在今年第二季度,英伟达就已经卖出了816吨H100!

假如这个速度不变,它有望在今年卖出3,266吨H100。并且,在接下来的每年里,英伟达都会卖出120万张H100。

现在,云服务供应商的大规模H100集群容量即将耗尽,全球陷入GPU短缺,硅谷大佬们都急了——整体算来,全球公司需要约432000张H100。

最近同时大火的,还有黄仁勋管理英伟达的方法。

「没有计划、没有汇报、没有层级」,如此随性,如此佛系,甚至可以说,如此疯狂。

就是这种管理办法,让英伟达市值超过1万亿,在半导体公司中一时风头无两。

图片

半导体巨人

英伟达声称,在2024财年第二季度,他们售出了价值103亿美元的数据中心硬件。

价值103亿美元是什么概念?

今天,市场研究公司Omdia给出了让我们更容易理解的单位——816吨H100!

根据Omdia估计,第二季度英伟达的H100 GPU出货量超过了816吨。

一个英伟达H100 GPU,再加上散热器,平均重量超过了3公斤,因此,第二季度的H100发货量,保守估计也有30万个。

Omdia的估算准确吗?

要知道,H100有三种不同的外形尺寸,重量也不尽相同。

H100 PCIe显卡重达1.2千克,H100 SXM模组的重量尚不清楚,而带散热片的OAM模组重量可达2千克,它与H100 SXM的尺寸和TDP大致相同。

假设H100出货量80%是模组,20%是显卡,那么单个H100的平均重量应为1.84千克左右。

所以,Omida的估算可以认为大致准确。当然,实际重量可能少于816吨这个数字。

816吨是多重?

为了便于理解这个重量,我们可以拿以下这些东西来类比——

4.5架波音747

11架航天飞机

181,818台PlayStation 5

32,727只金毛

假如英伟达在未来几个季度保持相同的GPU销量,那么它有望在今年售出3,266吨H100。

假如这个速度保持不变,每年英伟达都会卖出120万个H100。

并且,还不止这些。

还有H800,以及上一代的A100、A800、A30。

这样算的话,英伟达每季度实际销售的GPU数量远远高于30万个,重量总计远超过816吨。

即便如此,仍然不能满足全球的GPU荒——根据行业内部消息,英伟达H100 2023年的产量,早已销售一空,现在交钱订购,至少要到2024年中才能拿到货。

现在,H100早已一卡难求。

甚至还有外媒爆料:英伟达要在2024年,将H100的产量从今年的50万张左右直接提高到150-200万张。

显然,随着英伟达芯片在生成式AI的热潮中愈加紧俏,这个预测并不夸张。

黄仁勋「第一性原理」

与此同时,GPU的销量暴涨,也让英伟达成为了世界算力霸主,成功进入万亿美元俱乐部。

这背后离不开领导人黄仁勋的「疯狂式」的管理策略。

老黄表示,当你创立一家公司时,很自然地从第一性原理开始。

「就像我们正在建造一台机器如何运作一样,什么是输入,什么是输出,处在什么条件下,行业标准又是什么.....」

用老黄的话来说,英伟达的使命是,解决世界那些几乎不可能的计算问题。如果一个问题可以由普通的电脑解决,英伟达就会不做。

为了实现这一使命,英伟达吸引很多很多出色的人才,聚集在一起。

同时还需要,老黄管理这些人才的顶级策略,具体包括:

直接管理40名下属,没有1:1会议

英伟达不需要「金字塔」式的管理,而是将权力下放给每一个人。

老黄信奉扁平化的组织最富有能力,以便信息能够快速传播。

其中,组织的第一层——公司高层,就必须要考虑更加周全。他从不向任何人高管提供职业建议,因为管理团队中没有人来向他寻求职业建议。

「他们已经成功了,他们做得很好」。

另外,老黄从不进行1对1会议,所有事情都在小组讨论中进行。

「如果你有一个战略方向,为什么只告诉一个人?应该让每个人都知道」。

每个人都能随时了解所有情况

在公司内部,从来都不会召开副总裁会议、总监会议。

老黄称,自己参加的会议里,有来自不同组织的人,刚刚毕业的大学生,任何人都可以参加并发表意见。

不做状态报告,而是email「前五件事情」

在英伟达,每个人都不需要做状态报告,因为老黄认为这像是「元资讯」,太过精炼,基本上没有有益的讯息。

相反,公司里的任何人都可以通过电子邮件向他发送自己的「前五件事情」。

你所学到的,你所观察到的,你即将要做的,无论是什么事情,他每天早上都会阅读100+邮件,去了解大家的TOP 5 things。

比如,你去了一家非常棒的餐厅、有了一个可爱的baby...,这才是真正重要的信息。

没有正式的定期计划

对于,如何去做规划,让公司最底层的想法展现出来、让最好的工程师执行。

老黄表示,对于我来说,没有5年计划,也没有1年计划,会根据不断变化的业务和市场条件进行重新评估。

总结来说,英伟达优化组织结构的目的是:(1)吸引优秀人才;(2)保持尽可能小的团队规模;(3)使信息传播尽可能迅速

就连英伟达深度学习研究员VP Bryan Catanzaro,直接现身证明,全部为真。

那么,在这样的组织工作是一种什么样的体验?

Bryan表示,在很多方面,这是一个非常稳定的环境。许多资深员工已经在英伟达工作了几十年。这种风格并不适合每一个人,但对很多人来说却很有效。这是一个充满活力的环境。

与马斯克不同的是,老黄很少对外讲述自己管理公司的方法。

今年在台大的演讲中,老黄曾讲述了定义了今天英伟达样貌的3个故事。这当中,离不开他的决策和判断,已经思考。

最初,英伟达与SEGA签约,为其打造游戏机。经过一年的开发过程,却发现使用的技术架构是错误的。

但是,黄仁勋发现即便纠正过来,也无济于事,因为这一产品创造与微软的Widows系统并不兼容。

于是,他联络了SEGA执行长,解释英伟达无法完成这个任务,并还得到了SEGA的帮助,所幸没有破产。

第二件事,就是2007年英伟达宣布的CUDA GPU加速计算技术。

为了向全世界推广CUDA技术,还专门创办了GTC的会议。经过多年努力,英伟达这项技术成为AI革命重要的推动引擎。

第三件事,做出放弃手机市场的艰难决定,将重心放在显卡上。

正如老黄所说,「战略性的撤退、牺牲、决定放弃什麽是成功的核心,非常关键的核心。」

一位X的工程师称,这一管理方式与马斯克X公司的操作非常类似。

还有网友戏称,老黄的这种管理方式,都可以在多模态智能体大模型体系中建模了。

如果老黄,能够像马斯克一样出一本传记,相信每个人都愿意去拜读一下。

看看,英伟达的GPU如何取得成功,成为大厂的掘金铲。

图片

全球GPU缺口超40万张

H100的短缺,早就让硅谷大佬们都慌了!

Sam Altman就曾自曝,GPU已经告急,希望用ChatGPT的用户能少一点。😂

「GPU非常短缺,使用我们产品的人越少越好」

Altman表示,受GPU限制,OpenAI已经推迟了多项短期计划(微调、专用容量、32k上下文窗口、多模态)。

OpenAI联合创始人兼职科学家Andrej Karpathy也透露过,现在谁家得到了多少块H100,都是硅谷的顶级八卦。

这张在社区广为流传的图曾做出如下估算——

-GPT-4可能在大约10000-25000张A100上进行了训练

-Meta大约21000 A100

-Tesla大约7000 A100

-Stability AI大约5000 A100

-Falcon-40B在384个A100上进行了训练

– Inflection使用了3500和H100,来训练与GPT-3.5能力相当的模型

现在不光是科技公司排着队购买H100,连沙特阿拉伯和阿联酋都出手了,一下就买了几千个H100 GPU。

马斯克直言,现在想买到H100已经难如登天。

图片

根据马斯克的说法,GPT-5可能需要30000-50000个H100。此前,摩根士丹利曾表示GPT-5使用25000个GPU,自2月以来已经开始训练,不过Sam Altman之后澄清了GPT-5尚未进行训。

而一篇名为「Nvidia H100 GPU:供需」文章曾推测,小型和大型云提供商的大规模H100集群容量即将耗尽,H100的需求趋势至少会持续到2024年底。

微软的年报中也向投资者强调,GPU是其云业务快速增长的「关键原材料」。如果无法获得所需的基础设施,可能会出现数据中心中断的风险因素。

据推测,OpenAI可能需要50000个H100,而Inflection需要22,000个,Meta可能需要 25k,而大型云服务商可能需要30k(比如Azure、Google Cloud、AWS、Oracle)。

Lambda和CoreWeave以及其他私有云可能总共需要100k。Anthropic、Helsing、Mistral和Character可能各需要10k。

整体算来,全球公司需要约432000张H100。按每个H100约35k美元来计算,GPU总需求耗资150亿美元。

这其中,还不包括国内大量需要H800的互联网公司。

而且,H100不光不愁卖,利润率还高得吓人。

业内专家曾称,英伟达H100的利润率接近1000%。

责任编辑:张燕妮 来源: 新智元
相关推荐

2023-11-21 09:14:33

微软Azure AI

2023-03-22 10:09:26

AIChatGPT

2023-09-11 12:58:00

AI训练

2023-09-10 12:40:01

英伟达GPU

2023-10-13 13:11:58

数据智能

2023-08-14 08:07:46

ChatGPTAI

2023-08-06 13:01:34

AI开发

2023-06-14 12:08:51

2023-10-18 13:17:12

AI芯片英伟达美国

2024-03-14 14:49:34

Meta人工智能

2024-02-02 09:15:10

AI芯片

2024-04-02 11:39:17

数据训练

2023-09-27 12:57:37

AI研究

2023-11-14 07:37:21

芯片英伟达

2023-08-10 13:54:36

GPUAI

2023-05-29 18:36:31

2023-05-11 08:48:58

谷歌超级计算机

2024-04-10 09:10:27

Gaudi 3芯片英特尔

2023-08-24 14:26:00

数据中心利润AI

2023-06-30 09:53:08

英伟达AI
点赞
收藏

51CTO技术栈公众号