要点
- OpenAI与亚马逊网络服务(AWS)达成了380亿美元的交易,以确保云基础设施。
- OpenAI获得了数十万个英伟达GPU的访问权限,用于训练和扩展其下一代AI模型。
- 这笔交易巩固了AWS在AI竞赛中的地位,并突显了主要科技云服务商之间计算能力日益集中化的趋势。
什么是OpenAI-AWS交易:一项为期七年、380亿美元的计算能力赌注
OpenAI已与亚马逊网络服务(AWS)签署了一项为期七年、价值380亿美元的云服务协议,确保获得数十万个英伟达GPU的访问权限,用于训练和部署其下一代模型。这项周一宣布的交易,标志着OpenAI自上周公司重组以来最重要的战略举措,该重组使这家ChatGPT制造商获得了更大的财务独立性,并减轻了微软对其运营的控制。
根据协议,AWS将开始在专用数据中心集群中部署英伟达GB200和GB300加速器,预计到2026年底实现全面产能,并有空间扩展到2027年。对亚马逊而言,这笔交易标志着其在AI竞赛中的决定性回归。对OpenAI而言,这代表了私人AI公司签署的最大规模计算合同。
这一合作伙伴关系立即将AWS推回AI基础设施的中心位置,消除了人们对其落后于微软Azure和谷歌云的担忧。亚马逊股价周二上涨了5%,为其市值增加了近1400亿美元——这是多年来最大的两天涨幅。
智能的新货币:计算能力
如果说数据是数字时代的石油,那么计算能力就是它的电力。"扩展前沿AI需要大规模、可靠的计算能力,"OpenAI的CEO萨姆·奥特曼在一份声明中表示。这句话概括了交易背后的逻辑:在通用人工智能(AGI)的竞赛中,获取计算能力——而非算法——现在定义了领导地位。
OpenAI计划在未来十年部署超过30千兆瓦的计算能力,资本支出约为1.4万亿美元。奥特曼提出了一个大胆的目标:每周增加一千兆瓦的计算能力,目前每千兆瓦的成本超过400亿美元。为了说明这一规模,每千兆瓦可以为约83万美国家庭供电。
这种规模将计算能力转变为一个独立的资本市场。风险投资家、主权基金和科技巨头正在像能源期货一样交易基础设施容量。世界的智能经济——从训练大型语言模型到服务数十亿日常AI查询——现在依赖于在全球范围内确保、融资和运营GPU密集型数据中心的能力。
为何重要:集中化螺旋
AWS-OpenAI交易凸显了一个令人不安的现实:AI行业正围绕少数超大规模云服务商、芯片供应商和模型提供商进行整合。微软、亚马逊和谷歌现在处于一个封闭循环的中心,资金、计算能力和智能在相同的几个网络中循环。
每一代新模型都需要指数级增长的计算能力。计算能力的每一次飞跃都需要数十亿美元的资本支出。结果是一个反馈循环,使现有巨头受益,并为其他所有人提高了进入门槛。
Gradient的CEO埃里克·杨——一个由Pantera Capital和Multicoin Capital支持的去中心化AI研究网络——简洁地描述了这一现象:
"这些新云交易的规模表明AI已迅速成为一个独立的资本市场。行业最大的参与者现在有效地交易控制智能的权力,就像其他人交易能源一样——将巨大的财务和运营权力集中在少数提供商手中。下一个挑战是确保智能本身不会被困在那里。"
杨的话强调了一个日益增长的哲学分歧:AI的未来应该属于集中化的云服务,还是分布式、主权系统,这些系统在独立网络和设备上运行?
从开放到不透明:OpenAI的结构转变
AWS交易的时机紧随OpenAI的全面重组,这使公司远离了其最初的非营利章程。重组取消了微软提供云服务的"优先拒绝权",并使OpenAI能够更自由地筹集外部资金——据路透社报道,包括潜在的1万亿美元IPO。
自2015年成立以来,OpenAI的轨迹反映了AI本身的更广泛演变:从开放研究集体到追求利润的平台。2022年底ChatGPT的推出使AI成为家喻户晓的概念,推动公司的收入运行率到2025年底达到200亿美元。然而,它仍然处于亏损状态,主要是因为模型训练和推理的巨大成本。
通过多元化超越微软的Azure云——同时作为上周重组的一部分仍承诺向Azure计算投入2500亿美元——OpenAI既对冲了运营风险,又增强了资本强度。它还与谷歌云和甲骨文建立了次要交易,据报道后者在五年内价值3000亿美元。总计,OpenAI的未来计算承诺超过6000亿美元——这是单个AI公司历史上最大的。
AWS在AI军备竞赛中的复兴
对亚马逊而言,这项协议是一个救赎弧线。AWS仍然是全球最大的云服务提供商(按市场份额计算),但随着微软和谷歌宣布与领先模型开发商建立更引人注目的合作伙伴关系,分析师已开始质疑其AI资质。
这份380亿美元的合同改变了这一叙事。它将OpenAI——生成式AI革命的皇冠明珠——带入亚马逊的轨道,即使亚马逊继续通过自己的数十亿美元投资支持竞争对手模型构建商Anthropic。AWS的Bedrock平台已经托管来自Anthropic、Meta、Cohere、Stability AI和Mistral AI的模型。现在它增加了OpenAI的工作负载,强化了亚马逊作为AI"中立基础设施层"的战略。
短期内,这笔交易承诺提高AWS专用芯片和GPU实例的利用率。长期来看,它将亚马逊定位为AI工作负载不可或缺的公用事业提供商——这与它二十年前为早期互联网初创公司扮演的角色相同。
OpenAI的竞争:巨头与挑战者
2025年的竞争格局激烈。由亚马逊和谷歌支持的Anthropic正在谷歌的TPU v6超级集群上训练其下一代Claude系列模型。埃隆·马斯克的xAI正在甲骨文托管的英伟达H100和B200 GPU上扩展其"Grok"模型。法国初创公司Mistral AI刚刚完成6亿美元融资,正走开放权重路线,发布可在较小硬件上运行的完全可访问模型。
OpenAI仍然是封闭模型性能的基准,但竞争正在加剧。该公司的专有模型——GPT-4和即将推出的GPT-5——需要大量推理预算,可能超过微软全球Azure容量。通过将AWS添加到其基础设施组合中,OpenAI确保了冗余和并行增长——但也表明没有单一提供商能够单独满足其规模需求。
同时,诸如Together AI、Lambda Labs和CoreWeave(在英伟达入股后估值200亿美元)等初创公司正在为专业模型训练提供精品高性能计算。这种增长表明一个生态系统,其中计算成为商品,而编排成为差异化因素。
计算军备竞赛的经济学
AI模型开发已成为技术领域最资本密集的前沿。GPU、电力和冷却的价格已将AI基础设施转变为数字经济的新油田。
英伟达仍然是主导供应商,控制着超过80%的高端AI芯片市场。其最新的GB200 Grace Blackwell系统专为万亿参数模型设计,性能比前一代H100提高了30倍。AWS计划以前所未有的规模为OpenAI的集群部署这些芯片。
财务影响令人震惊。根据摩根士丹利的数据,到2030年,全球AI基础设施投资可能超过2万亿美元,由超大规模云服务商和主权AI计划推动。仅OpenAI就可能占2026年GPU总需求的20%。
这种集中化有副作用:能源消耗飙升、环境成本和潜在的供应链瓶颈。各国已经在争夺芯片制造、电网接入和数据中心冷却的水权——呼应了20世纪石油的地缘政治。
去中心化AI:反运动获得支持
随着云集中化加速,一个新的生态系统正在崛起反对——它融合了区块链基础设施、分布式计算和边缘AI。目标是:使智能具有主权,意味着可由个人和社区控制,而非被云垄断。
像Gaia AI、Bittensor、Fetch.ai和io.net这样的项目正在构建点对点网络,计算资源可以通过代币透明地汇集、交易和分配。Render Network去中心化GPU渲染;Gensyn和Akash Network为训练计算提供开放市场;Cerebras和Tenstorrent实验模块化、本地可部署的AI加速器。
吸引力在于弹性和自主性。如果智能基础设施反映今天的云寡头垄断,社会就有风险将数据和决策权让渡给少数企业平台。去中心化AI主张相反:一个模型存在于各种设备之间的世界,由开放协议而非专有API管理。
甚至主要机构也在关注。欧盟的"主权AI"倡议和日本经济产业省的"边缘AI"计划都强调对模型训练和推理的本地控制。目标不是拆除云,而是平衡它们。
权力、政策和即将到来的监管浪潮
OpenAI的基础设施扩张引发了监管和环境问题。训练前沿模型消耗大量电力——每次模型迭代估计为10-15千兆瓦时——并产生显著的碳足迹。政府开始像审视其数据伦理一样密切审视AI的物理足迹。
在美国,联邦贸易委员会和能源部已联合开展对"计算集中"及其对创新和能源安全影响的调查。欧盟委员会的AI法案可能很快要求披露超过特定规模的模型的计算来源和碳指标。
这些措施可能会影响OpenAI如何构建其长期容量交易。多元化的多云战略不仅可以降低业务风险,还可以分散监管风险。


