近期,OpenAI在一項重要技術決策中宣布,盡管已經對谷歌的TPU芯片進行了初步測試,但并不打算大規模采用這一解決方案。TPU,即張量處理單元,是谷歌專為加速機器學習任務而設計的定制化ASIC芯片,特別優化了神經網絡的訓練與推理過程。其數據流驅動的架構能有效提升矩陣乘法流水線計算效率,從而顯著降低內存訪問延遲。
OpenAI表示,他們將繼續信賴英偉達GPU和AMD AI加速器來支持其模型的訓練與推理任務。這兩家公司的產品已經得到了充分驗證,并且OpenAI與它們之間建立了穩固的供應關系。盡管有傳言稱OpenAI在某些特定任務中開始嘗試使用谷歌的AI芯片,但據知情人士透露,這些芯片實際上是性能較低的TPU版本,而谷歌最新設計的、專為Gemini大語言模型打造的芯片,仍將繼續留在谷歌內部使用。
盡管OpenAI與谷歌云的合作涵蓋了基礎設施的更廣泛需求,但OpenAI明確表示,短期內不會將大量算力轉移到TPU平臺。此前,一些投資者和分析師將潛在的TPU合作視為OpenAI尋找英偉達替代方案的信號,摩根士丹利的策略師甚至認為,這將有助于驗證谷歌硬件在市場上的競爭力。
然而,OpenAI的表態揭示了其與現有芯片合作伙伴之間的緊密聯系,以及超大規模部署新硬件所面臨的復雜挑戰。隨著人工智能算力需求的持續激增,OpenAI似乎更傾向于在現有的GPU-TPU混合測試基礎上逐步擴展,而不是全面轉向TPU架構。這一芯片路線圖向市場傳達了一個明確的信息:英偉達和AMD將繼續作為OpenAI的核心供應商,這可能限制了谷歌在AI硬件市場的增長空間,盡管其TPU技術不斷進步。
接下來,投資者將密切關注OpenAI的基礎設施更新以及谷歌云的財報,以捕捉TPU使用率變化或新供應商多元化的任何跡象。這些信息對于理解OpenAI的技術路線圖和谷歌在AI硬件市場的地位至關重要。