为什么说大家低估了 AI 的实际使用规模?实际情况如何? 原创

发布于 2025-6-20 11:11
浏览
0收藏

编者按: 人工智能真的已经深入我们的日常生活了吗?当我们还在讨论 AI 技术的潜力时,是否忽略了一个更为重要的事实 —— AI 的实际使用量可能远超我们的想象?

以 Google 为例,其 AI 交互处理的 token 数量从 2024 年 4 月的 9.7 万亿激增至 2025 年 4 月的 480 万亿以上,月处理量正快速逼近 1 千万亿的惊人规模。与此同时,微软 Azure AI 服务单季度处理超过 100 万亿 token,同比增长 5 倍,而 OpenAI、字节跳动、百度等公司也都达到了日均万亿 token 的处理量级。更值得关注的是,随着代码智能体等新应用场景的兴起,单个任务的 token 消耗量将从当前的百万级跃升至千万甚至亿级规模。

这些数据背后折射出的,不仅是技术进步的速度,更是整个互联网生态向 AI 优先服务模式的转变。当 AI 生成的内容开始超越人类创造的数据总量时,我们或许需要重新思考:我们是否真的准备好迎接这个 AI 深度融入的新时代?

作者 | Nathan Lambert

编译 | 岳扬

大多数人工智能服务,尤其是推理 API 的使用量和收入,长期以来一直在迅猛增长1。这些 API 为开发它们的公司带来了丰厚的利润 —— 根据 SemiAnalysis 的迪伦·帕特尔(Dylan Patel)所说[1],其利润率有时高达 75% 甚至更高。这是 AI 领域开发者们心照不宣的公开事实之一,却往往在对层出不穷的新功能的欢呼声中被大众忽略。

我认为订阅服务在普通用户身上也是盈利的,但服务的重度使用用户很可能是人工智能公司的成本来源之一,更何况训练前沿模型本身就需要巨额投入。 不过,即便模型技术停滞不前,服务使用量也在呈指数级增长 —— 而且很大一部分都能带来真金白银的收益。

AI 的使用量早已呈现爆发式的增长 —— 某些领域甚至是指数级的飙升,这波增长浪潮其实远早于今年上半年业内那些惊艳的技术突破。推理模型每次生成的答案 token 数量,从数百个骤增至有时上万的量级,这将使得使用量曲线变得更加陡峭。与此同时,这些模型通常按 token 计费,因此这些都将转化为更多的收入。

除了 2025 年整个行业的蓬勃发展与技术进步外,前一段时间的 Google I/O 主题演讲堪称 AI 领域的“全景式总结”,在多模态交互、终端设备和应用场景中全方位展现了这一趋势。这场发布会[2]非常值得一看。谷歌正试图在各条战线发起竞争 —— 他们的定位是在部分应用场景中具备夺冠实力,其余领域也稳居前三。目前没有其他任何一家 AI 公司能接近这一地位,我们且看他们的产品文化如何适应这种布局。

I/O大会的亮点包括:对标 OpenAI o1 Pro 产品的 Gemini Deep Think、谷歌的全新多模态模型(如支持音频的 Veo 3,据我所知这是头部厂商的首次尝试)、叫板 Meta 和苹果的 AR 头戴设备现场演示,以及作为大多数用户与 Gemini 的交互基础的 Gemini 2.5 Flash 新版。

大会中令人惊叹的案例层出不穷,单看文字描述反而显得苍白。这些技术路径我们早有预见,但谷歌等企业的推进速度远超预期。现在前沿的语言模型评估基准已经无法有效区分顶级模型的性能差异,因此谷歌(及近期其他大模型厂商)分享的用户使用数据才是正确的关注焦点 —— 评判 AI 进展的标准应该从“模型在基准测试中的表现”转向“模型在现实世界中解决实际问题的能力”。

最能印证这点的当属这张图表,它展示了谷歌所有 AI 交互界面(含多模态交互)处理的 token 数量2 —— 最近数月正在急剧飙升。

为什么说大家低估了 AI 的实际使用规模?实际情况如何?-AI.x社区

Timestamp is here[3]

我在图表上做了标注,估算出 2 月份的拐点大约是每月 160 万亿个 token 的总量。Gemini 2.5 Pro 是在 3 月底发布的[4],这肯定有贡献,但并不是出现拐点的唯一原因。数据大致如下:

  • 2024 年 4 月:9.7T tokens
  • 2024 年 12 月:90T tokens
  • 2025 年 2 月:160T tokens
  • 2025 年 3 月:300T tokens
  • 2025 年 4 月:480T+ tokens

每月的 token 处理量正快速逼近 1 千万亿(1 quadrillion)。虽然 token 的价值/成本不尽相同,但这大约相当于每秒处理 1.5-2 亿个 token。全球谷歌年搜索量为 5 万亿次(5T)[5],折合约每秒 10 万次,按这个每秒处理的 token 数量计算,大概相当于每次搜索使用 1000 个 token(当然,实际的计算资源分配肯定不是这么回事)。这种级别的 token 规模令人难以置信3。

谷歌的核心 AI 产品仍然是基于 Gemini 模型的搜索概览(search overviews)功能,官方反复强调该功能广受好评,已经覆盖了 10 亿多用户[6](但具体服务方式尚不明确 —— 我推测同一生成结果可能服务成千上万的用户)。

谷歌现在每月生成的 token 量,已经超过了 Common Crawl[7] 的全部数据储量 —— 需要强调的是,Common Crawl 被公认为是“开放网络的快照(snapshot of the open web)”,也是 AI 预训练数据集的基准来源。Together AI 团队在 RedPajama 2 项目[8]中尝试使用 Common Crawl 进行预训练时,估算其原始数据约含 100 万亿(100T)token,其中实际用于预训练的通常在 5-30 万亿 token 之间。照此速度,一两年内谷歌单日处理的 token 量就可能达到这个规模。

这篇文章[9]对互联网各领域数据量与 Common Crawl 这类数据仓库(或谷歌 Gemini 等生成系统)的对比做了精彩估算:谷歌每日处理的 token 量,相当于四小时读完(或生成)Google Books 全部藏书,或一个多月处理完全球所有即时通讯信息的数据总量。

文中举例如下:

为什么说大家低估了 AI 的实际使用规模?实际情况如何?-AI.x社区

当以数据规模进行衡量时,互联网正在被重构为 AI 优先的服务生态,人类生成的数据将迅速过时。

谷歌的数据规模固然惊人,但这绝非个例 —— 整个行业正迎来爆发式增长。 这本质上是个永动飞轮:基于既有模型的产品刚开始获得市场牵引力,新一代模型就已破茧而出,开启新一轮增长周期。要预测这个增长周期的上限,简直难如登天。

例如,就在几周前的 2025 年第三季度财报会议[10]上,微软 CEO Satya Nadella 就 Azure AI 服务的输出量特别提到:

"本季度我们处理了超过 100 万亿 token,同比增长 5 倍 —— 仅上个月就达 50 万亿 token,创下新纪录。"

这意味着谷歌的 token 处理量几乎是 Azure 的 10 倍。考虑到微软早年与 OpenAI 合作托管模型的先发优势,不少人认为谷歌实属后来居上。

对其他模型服务(如 ChatGPT)的数据估算则混乱得多(非上市公司&信息滞后),但整体趋势相似。Sam Altman 曾在 2024 年 2 月发推[11]称:

"OpenAI 目前每日生成约 1000 亿单词

全球人类每日生成约 100 万亿单词"

按 1 单词约等于 0.75 token 的经验换算,每日 1000 多亿单词即月均约 4 万亿 token。这相当于谷歌 2024 年 4 月数据的一半 —— 既值得玩味又令人印象深刻。

虽然需更多数据来验证 OpenAI 是否保持与谷歌相近的增长速度,但 ChatGPT 的发展轨迹与谷歌基本吻合:用户数持续增长、人均交互量提升、单条消息的 token 生成量增加。据我估算, ChatGPT 的 token 处理量应介于 Azure 和谷歌之间。

多模型 API 平台 OpenRouter 的排名数据也呈现相似的趋势[12],最近数月处理量约 2 万亿token —— 与一年前的ChatGPT大致处于同一个数量级,具体取决于如何测量4。

为什么说大家低估了 AI 的实际使用规模?实际情况如何?-AI.x社区

这种现象并非欧美企业专属 —— 字节跳动、百度等中国企业也已迈入日均万亿 token 量级[13](我没有找到其他信息来源证实这个信息)。

当像 Anthropic 或 OpenAI 这样快速增长的公司分享看似难以置信的收入预测时[14-15],也许我们应该给予它们更多的信任?

有许多仍处于测试阶段的应用场景,主要是代码智能体,将会帮助这些数据量大幅增长。我们深度测试过 Claude Code、OpenAI 的 Codex、谷歌的 Jules 等大量智能体,它们单次独立运行数分钟即可消耗海量文本 token。我和朋友们一起估算过,一次深度研究(Deep Research)约消耗 100 万推理 token,不久之后,单个任务将消耗千万级、甚至亿级的 token 5 —— 要知道两年前,震撼业界的 ChatGPT 的单次查询仅需消耗 100-1000 token。

眼下正值 token 交易的黄金时代,而此番盛景不过是序幕而已。


1.例如,我们参加 Lex Fridman 的节目时,在某个地方讨论过这个问题:​​https://youtu.be/_1f-o0nqpEI​

2.这包括输入、输出,以及 Google 随意决定的任何 token。

为什么说大家低估了 AI 的实际使用规模?实际情况如何?-AI.x社区

3.灵感来源:​​https://x.com/ptrschmdtnlsn/status/1924984659315982580​

4.理想情况下,我们应该分析各家公司采用这项技术的速度和程度有何不同,但我们手头的数据不足以支撑这种深入的对比分析。

5.当然,这也有它的问题。比如说,Veo 3(Google 的 AI 视频生成工具)现在能生成带声音的视频,这种内容正在网上疯传,很可能会被算法推送到各种短视频平台上,变成让人欲罢不能的上瘾内容。

END

本期互动内容 🍻

❓谷歌一个月能够处理 480T+ token,与你预期的数量一致吗?你日常使用的哪个 AI 应用/场景消耗 token 最多?

文中链接

[1]​​https://lexfridman.com/deepseek-dylan-patel-nathan-lambert-transcript/​

[2]​​https://www.youtube.com/watch?v=o8NiE3XMPrM​

[3]​​https://www.youtube.com/live/o8NiE3XMPrM?si=SJsga6osWbD_bJF6&t=394​

[4]​​https://www.interconnects.ai/p/gemini-25-pro-googles-second-ai-chance​

[5]​​https://blog.google/products/ads-commerce/ai-personalization-and-the-future-of-shopping/​

[6]​​https://blog.google/technology/ai/io-2025-keynote/​

[7]​​https://commoncrawl.org/​

[8]​​https://www.together.ai/blog/redpajama-data-v2#:~:text=and+deduplicated+tokens+(-,100%2B+trillions+raw,-)+from+84+CommonCrawl​

[9]​​https://www.educatingsilicon.com/2024/05/09/how-much-llm-training-data-is-there-in-the-limit/​

[10]​​https://www.microsoft.com/en-us/investor/events/fy-2025/earnings-fy-2025-q3​

[11]​​https://x.com/sama/status/1756089361609981993?utm_source=chatgpt.com​

[12]​​https://openrouter.ai/rankings​

[13]​​https://www.lesswrong.com/posts/4x4QFzmdWadgr7mdj/translation-in-the-age-of-ai-don-t-look-for-unicorns​

[14]​​https://www.reuters.com/technology/artificial-intelligence/openai-does-not-expect-be-cash-flow-positive-until-2029-bloomberg-news-reports-2025-03-26/?utm_source=chatgpt.com​

[15]​​https://www.bloomberg.com/news/features/2025-05-19/anthropic-ceo-amodei-steers-61-billion-ai-powerhouse?utm_source=chatgpt.com​

本文经原作者授权,由 Baihai IDP 编译。如需转载译文,请联系获取授权。

原文链接:

​https://www.interconnects.ai/p/people-use-ai-more-than-you-think​


©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
标签
收藏
回复
举报
回复
相关推荐