重點摘要
- OpenAI 與 Amazon Web Services (AWS) 簽訂了價值 380 億美元的協議,以確保雲端基礎設施。
- OpenAI 獲得了數十萬個 Nvidia GPU 的使用權,用於訓練和擴展其下一代 AI 模型。
- 這項協議鞏固了 AWS 在 AI 競賽中的地位,並凸顯了主要科技雲端服務商之間計算能力日益集中化的趨勢。
OpenAI-AWS 協議是什麼:一項為期七年、價值 380 億美元的計算能力賭注
OpenAI 已與 Amazon Web Services (AWS) 簽署了一項為期七年、價值 380 億美元的雲端服務協議,確保獲得數十萬個 Nvidia GPU 的使用權,用於訓練和部署其下一代模型。這項協議於週一宣布,標誌著 OpenAI 自上週公司重組以來最重要的戰略舉措,該重組使這家 ChatGPT 開發商獲得了更大的財務獨立性,並鬆綁了 Microsoft 對其運營的控制。
根據協議,AWS 將開始在專用數據中心集群中部署 Nvidia GB200 和 GB300 加速器,預計到 2026 年底實現全面產能,並有空間擴展到 2027 年。對 Amazon 來說,這項協議標誌著在 AI 競賽中的決定性回歸。對 OpenAI 來說,這代表了私人 AI 公司簽署的最大規模計算合約。
這項合作立即將 AWS 推回 AI 基礎設施的中心位置,消除了它落後於 Microsoft Azure 和 Google Cloud 的擔憂。Amazon 股價在週二上漲了 5%,為其市值增加了近 1400 億美元——這是多年來最大的兩日漲幅。
智能的新貨幣:計算能力
如果說數據是數字時代的石油,那麼計算能力就是它的電力。「擴展前沿 AI 需要大規模、可靠的計算能力,」OpenAI 的 CEO Sam Altman 在一份聲明中表示。這句話概括了協議背後的邏輯:在通用人工智能(AGI)的競賽中,獲取計算能力——而非算法——現在定義了領導地位。
OpenAI 計劃在未來十年部署超過 30 千兆瓦的計算能力,資本支出約為 1.4 兆美元。Altman 提出了一個大膽的目標:每週增加一千兆瓦的計算能力,目前每千兆瓦的成本超過 400 億美元。為了讓這個數字更具體,每千兆瓦可以為約 83 萬美國家庭供電。
這種規模將計算能力轉變為一個獨立的資本市場。風險投資家、主權基金和科技巨頭正在像交易能源期貨一樣交易基礎設施容量。世界的智能經濟——從訓練大型語言模型到服務數十億日常 AI 查詢——現在依賴於在全球規模上確保、融資和運營 GPU 密集型數據中心的能力。
為何重要:集中化螺旋
AWS-OpenAI 協議凸顯了一個令人不安的現實:AI 產業正在圍繞少數超大規模雲端服務商、晶片供應商和模型提供商進行整合。Microsoft、Amazon 和 Google 現在處於一個封閉循環的中心,資金、計算能力和智能在相同的少數網絡中循環。
每一次新模型迭代都需要指數級增加的計算能力。每一次計算能力的飛躍都需要數十億美元的資本支出。結果是一個反饋循環,使現有巨頭受益,並提高了其他人的進入門檻。
Gradient 的 CEO Eric Yang——一個由 Pantera Capital 和 Multicoin Capital 支持的去中心化 AI 研究網絡——簡潔地描述了這一現象:
「這些新雲端協議的規模顯示了 AI 如何迅速成為一個獨立的資本市場。行業中最大的參與者現在有效地交易控制智能的權力,就像其他人交易能源一樣——將巨大的財務和運營權力集中在少數提供商手中。下一個挑戰是確保智能本身不會被困在那裡。」
Yang 的話強調了一個日益擴大的哲學分歧:AI 的未來應該屬於集中化的雲端,還是應該屬於在獨立網絡和設備上運行的分散式、主權系統?
從開放到不透明:OpenAI 的結構轉變
AWS 協議的時機緊隨 OpenAI 的全面重組,這使公司遠離了其原始的非營利章程。重組移除了 Microsoft 提供雲端服務的「優先拒絕權」,並使 OpenAI 能夠更自由地籌集外部資金——根據路透社的報導,包括潛在的 1 兆美元 IPO。
自 2015 年成立以來,OpenAI 的軌跡反映了 AI 本身的更廣泛演變:從開放研究集體到追求利潤的平台。2022 年底 ChatGPT 的推出使 AI 成為家喻戶曉的概念,推動公司的收入運行率到 2025 年底達到 200 億美元。然而,它仍然處於虧損狀態,主要是因為模型訓練和推理的巨大成本。
通過超越 Microsoft 的 Azure 雲端進行多元化——同時作為上週重組的一部分仍承諾向 Azure 計算投入 2500 億美元——OpenAI 既對沖了運營風險,又增加了資本強度。它還與 Google Cloud 和 Oracle 建立了次要協議,後者據報導在五年內價值 3000 億美元。總計,OpenAI 的前瞻性計算承諾超過 6000 億美元——這是單一 AI 公司歷史上最大的承諾。
AWS 在 AI 軍備競賽中的復興
對 Amazon 來說,這項協議是一個救贖弧線。AWS 仍然是全球最大的雲端服務提供商(按市場份額計算),但隨著 Microsoft 和 Google 宣布與領先模型開發商建立更引人注目的合作關係,分析師已經開始質疑其 AI 資質。
這項 380 億美元的合約改變了這一敘事。它將 OpenAI——生成式 AI 革命的皇冠寶石——帶入 Amazon 的軌道,同時 Amazon 繼續通過自己的數十億美元投資支持競爭對手模型構建商 Anthropic。AWS 的 Bedrock 平台已經託管來自 Anthropic、Meta、Cohere、Stability AI 和 Mistral AI 的模型。現在它增加了 OpenAI 的工作負載,強化了 Amazon 作為 AI 的「中立基礎設施層」的戰略。
短期內,這項協議承諾提高 AWS 專用晶片和 GPU 實例的利用率。長期來看,它將 Amazon 定位為 AI 工作負載不可或缺的公用事業提供商——這與它二十年前為早期互聯網初創公司扮演的角色相同。
OpenAI 的競爭:巨頭與挑戰者
2025 年的競爭格局非常激烈。由 Amazon 和 Google 支持的 Anthropic 正在 Google 的 TPU v6 超級集群上訓練其下一代 Claude 系列模型。Elon Musk 的 xAI 正在 Oracle 託管的 Nvidia H100 和 B200 GPU 上擴展其「Grok」模型。法國初創公司 Mistral AI 剛剛完成 6 億美元融資,正在採取開放權重路徑,發布可在較小硬件上運行的完全可訪問模型。
OpenAI 仍然是封閉模型性能的基準,但競爭正在加劇。該公司的專有模型——GPT-4 和即將推出的 GPT-5——需要大量推理預算,可能超過 Microsoft 全球 Azure 容量。通過將 AWS 添加到其基礎設施組合中,OpenAI 確保了冗餘和並行增長——但也表明沒有單一提供商能夠單獨滿足其規模需求。
同時,像 Together AI、Lambda Labs 和 CoreWeave(在 Nvidia 入股後估值達到 200 億美元)等初創公司正在為專業模型訓練提供精品高性能計算。這種增長表明了一個生態系統,其中計算成為商品,而協調成為差異化因素。
計算軍備競賽的經濟學
AI 模型開發已成為技術領域最資本密集的前沿。GPU、電力和冷卻的價格已將 AI 基礎設施轉變為數字經濟的新油田。
Nvidia 仍然是主導供應商,控制著超過 80% 的高端 AI 晶片市場。其最新的 GB200 Grace Blackwell 系統專為萬億參數模型設計,性能比前一代 H100 提高了 30 倍。AWS 計劃以前所未有的規模為 OpenAI 的集群部署這些晶片。
財務影響令人震驚。根據 Morgan Stanley 的數據,到 2030 年,全球 AI 基礎設施投資可能超過 2 兆美元,由超大規模雲端服務商和主權 AI 計劃推動。僅 OpenAI 一家在 2026 年就可能佔總 GPU 需求的 20%。
這種集中化有副作用:能源消耗飆升、環境成本和潛在的供應鏈瓶頸。各國已經在競爭晶片製造、電網接入和數據中心冷卻的水權——這與 20 世紀石油的地緣政治相呼應。
去中心化 AI:反運動獲得支持
隨著雲端集中化加速,一個新的生態系統正在崛起反對——它融合了區塊鏈基礎設施、分散式計算和邊緣 AI。目標是:使智能具有主權,意味著可由個人和社區控制,而非被雲端壟斷。
像 Gaia AI、Bittensor、Fetch.ai 和 io.net 等項目正在建立點對點網絡,計算資源可以通過代幣透明地匯集、交易和分配。Render Network 去中心化 GPU 渲染;Gensyn 和 Akash Network 提供訓練計算的開放市場;Cerebras 和 Tenstorrent 實驗模塊化、可本地部署的 AI 加速器。
吸引力在於彈性和自主性。如果智能基礎設施反映今天的雲端寡頭壟斷,社會就有風險將數據和決策讓渡給少數企業平台。去中心化 AI 主張相反:一個模型存在於各種設備上的世界,由開放協議而非專有 API 管理。
甚至主要機構也在關注。歐盟的「主權 AI」倡議和日本經濟產業省的「邊緣 AI」計劃都強調對模型訓練和推理的本地控制。目標不是拆除雲端,而是平衡它們。


