据报道,OpenAI已向其在人工智能军备竞赛中最大的竞争对手之一Google Cloud寻求合作,以支持其ChatGPT模型的训练。尽管ChatGPT与谷歌的Gemini大型语言模型竞争激烈,但双方仍达成了这项协议。据三位消息人士透露,自年初以来双方反复磋商后于5月最终敲定。这一动向反映出,随着模型规模急剧扩张,AI企业正从专一依赖单一云服务转向多元计算资源布局。
背景脉络:Azure独享终结,Stargate布局加速
自2023年起,OpenAI长期依赖微软Azure作为主要算力提供者,但2025年1月其排他协议终止,Azure仅保留“优先选择权”(right of first refusal)而非独占模式。随后,OpenAI陆续签署了包括Oracle 与 SoftBank 5000亿美元级别Stargate项目、与 CoreWeave 共计119亿美元的五年合约,以增强计算能力与算力多元性。
在此背景下,转向Google Cloud成为OpenAI最新且最重要的一枚棋子。借助Google的 TPU 芯片资源,OpenAI不但能缓解Azure资源压力,还能提升算力冗余与供应链稳定性。
双方博弈:云算力与AI生态的新逻辑
对OpenAI而言,这项合作无疑增强了其长期可扩展能力,为即将上线的新一代大模型(如GPT‑5)提供底层保障。据Reddit网友推测,“这笔交易肯定是为GPT‑5做准备,否则他们根本不具备足够的算力”。
从Google角度分析,增强其Google Cloud业务不仅能够提升营收,还能充分利用自家TPU库存,提高云端利用率。在面对亚马逊 AWS 和微软 Azure 严峻竞争之时,Google也希望强化其在“AI就绪云”的市场定位。选中OpenAI,无疑是增强行业影响力的重大胜利。
值得注意的是,该协议虽释放了Google的算力储备,但也意味着其自用资源可能进一步紧张。据谷歌首席财务官Anat Ashkenazi今年4月透露,公司已面临资源供不应求的压力。
AI算力多源趋势:迈向生态共赢新时代
这笔交易并非孤例。近年来,AI企业在算力供应上正逐步趋向多点布局,避免受制于单一供应商,同时增强谈判筹码。例如:
Stargate 项目号称投资5000亿美元,联手SoftBank、Oracle等构建跨国AI基础设施;
CoreWeave 合作协议帮助OpenAI快速扩充GPU资源;
自主研发芯片计划致力于减少对Nvidia、中芯等第三方厂商的依赖。
此趋势预示了AI产业基础设施的深度进化:核心基础能力愈发成为行业“刚需”。科技巨头不再仅仅是『云服务商』,而是在算力、芯片、数据中心乃至国家战略层面展开硬核角逐。
AI算力供给正迈向“多供应商融合”新时代,挑动着行业生态、企业博弈和资本格局。伴随ChatGPT用户与模型规模的急速增长,算力已成AI落地的命脉。未来,或许谁能掌控底层基础设施,谁就更可能在下一轮AI浪潮中占据制高点。