
OpenAI 算力扩张计划启动!4000 亿算力壁垒下,普通开发者路在何方? 原创
OpenAI的“星际之门”计划近期与甲骨文和软银合作,新建5个大型人工智能数据中心,旨在三年内建设7GW算力容量,相当于7座大型核电站的功率输出。当各大巨头以万亿级算力基建驱动AI竞赛,我们不得不思考:普通开发者是否还能在AI浪潮中找到立足之地?
“星际之门”的历史性投资
OpenAI的“星际之门”计划正在全速推进。近日,OpenAI在获得英伟达1000亿美元投资承诺后,迅速宣布与甲骨文和软银合作,在美国新建5个大型人工智能数据中心,作为其“星际之门”计划的核心组成部分。并计划将算力容量提升至近7GW,相当于七座大型核反应堆的输出功率。
【位于德克萨斯州阿比林的人工智能基础设施项目。图源:路透社】
这项历史性投资规模,为下一代模型训练提供了所需的巨量算力。
在此之前,OpenAI就与甲骨文签了3000亿美元的云服务合同,而最近英伟达又追加1000亿美元投资,基于此,形成了“OpenAI-甲骨文-英伟达”算力闭环。
根据合作计划,未来OpenAI新增的5个数据中心将覆盖德州、新墨西哥州等地,采用“以租代售”模式,甲骨文负责运营,OpenAI作为主租户。
与甲骨文合作建设的三处数据中心分别位于德克萨斯州沙克尔福德县、新墨西哥州多尼亚安娜县以及中西部一个尚未公开的地点。
此外,OpenAI还和软银旗下子公司SB Energy合作,在俄亥俄州洛兹敦与德克萨斯州米拉姆县建设两个数据中心。
奥特曼在一篇题为《智能富足的时代》的文章中透露,他的愿景是打造一家“工厂”,每周能够生产出1GW规模的新人工智能基础设施。
此次算力扩张计划,也印证了OpenAI对构建超级AI工厂的雄心壮志。
值得关注的是,在OpenAI大力投入基础设施建设的同时,今年7月,OpenAI从竞争对手处挖来了四位知名工程师,包括特斯拉前软件工程副总裁David Lau、xAI和X前基础设施工程负责人Uday Ruddarraju等。这些人才的引进直接服务于“星际之门”计划。
除了能满足下一代模型所需算力需求,此次计划,更是形成了以OpenAI、英伟达以及甲骨文为闭环的难以超越的算力壁垒。
如果未来算力成为了像电力一样的基础资源,但被少数巨头垄断,个人和小团队还能否拥有创新的话语权?
普通开发者面临的三重挤压
首先,普通开发者获取高端GPU的等待周期常常从数周延长至数月。以开源的DeepSeek为例,DeepSeek虽尝试降低门槛,但其训练仍依赖512张H800芯片集群,这是个体开发者难以企及的程度。
而随着模型训练所需算力成本的增加,个体开发者获取高端算力的难度也会随之加剧。例如OpenAI的GPT-4推理成本为每百万token7.5美元,而中小团队难以承担同等规模实验。
第二重困境来自人才竞争的单向流动。OpenAI从特斯拉、xAI等公司挖角顶级工程师,而Meta则以4年3亿美元的天价薪酬争夺人才。巨头吸虹效应正使AI人才向国内外巨头流动,中小团队面临核心人员流失风险。
第三重困境是技术迭代的生存压力。AI巨头直接部署英伟达最新芯片时,个体开发者可能还停留在调试上一代硬件。算法更新速度的加快,正推动着技术快速迭代,个人和小团队难以跟上步伐。
技术民主化的另一面,是机会的再集中。开发者若无法接入最新基础设施,其产品性能差距可能指数级扩大。
算力壁垒下如何突围?
尽管环境严峻,但技术发展同时也在创造新的可能性。开源模型正成为打破AI领域算力霸权的关键力量。传统上,顶尖AI模型的开发被少数科技巨头所垄断,例如OpenAI训练GPT-4就耗资高达10亿美元,形成了极高的进入门槛。
而开源模型将算力门槛锐减至原来的十分之一。更为重要的是,开源生态带来了普惠效应。中小开发者能够通过开源的API以极低成本调用顶尖模型能力。开源模型的优势不仅体现在成本上,还在于其可定制性。企业可以对模型进行微调,使其更贴合特定行业需求。
同时,尽管AI算力需求持续增长,但云服务商之间的竞争正在推动算力成本下降和可访问性提高。算家云等云平台显著降低了中小企业的算力租赁门槛。使初创团队、科研机构和中小企业能够以更经济的方式使用企业级AI算力,在处理轻量级任务时,用户可大幅节省支出。
这些云服务普惠化趋势与技术创新相结合,为AI初创企业创造了更为公平的竞争环境。
算力集中化不可逆转,但机会之门并未完全关闭。
如果利用开源生态提供基础模型和工具链,垂直领域深耕提供商业化场景和数据反馈,云服务提供灵活可控的算力支持,可形成强大的协同效应,以应对更多的“星际之门”。
