隨著人工智能技術(shù)的飛速發(fā)展,Nvidia預(yù)計將在2025年大規(guī)模出貨其最新的Blackwell GPU,數(shù)量高達(dá)500萬塊。然而,這些高性能圖形處理器在成為下一代GPT、Gemini或Llama等模型的訓(xùn)練利器之前,必須先聯(lián)網(wǎng)。這一需求,正悄然為思科、Arista、HPE等以太網(wǎng)交換機(jī)供應(yīng)商以及Nvidia本身開辟出一項(xiàng)龐大的商業(yè)機(jī)遇。
思科CEO查克·羅賓斯在近期的一次財報電話會議上透露,公司第四季度來自網(wǎng)絡(luò)規(guī)模客戶的AI基礎(chǔ)設(shè)施訂單激增,總額超過8億美元,整個2025財年更是達(dá)到了20億美元,遠(yuǎn)超最初設(shè)定的10億美元目標(biāo)。這一數(shù)字的翻倍增長,直接反映了AI對網(wǎng)絡(luò)基礎(chǔ)設(shè)施需求的迅猛提升。
背后的經(jīng)濟(jì)邏輯并不復(fù)雜。每當(dāng)售出一塊200或200 GB的GPU,以太網(wǎng)交換機(jī)供應(yīng)商便能借此機(jī)會銷售大約3至5個交換機(jī)端口。端口數(shù)量受多種因素影響,包括端口速度、彈性和集群規(guī)模。以最大可容納8,192個GPU的集群為例,采用現(xiàn)代51.2Tb/s交換機(jī)和400GbE鏈路時,僅需一個葉子層和旋轉(zhuǎn)層,但高端配置可能需要多達(dá)192個交換機(jī)。
對于更大規(guī)模的集群,如包含128,000個GPU的系統(tǒng),交換機(jī)數(shù)量將急劇增加,需要采用三層胖樹拓?fù)湟源_保AI后端網(wǎng)絡(luò)的完全無阻塞連接。這種情況下,大約需要5,000臺交換機(jī),若使用較舊的25.5Tb/s網(wǎng)絡(luò)設(shè)備,則需求翻倍至10,000臺。除了連接所有節(jié)點(diǎn)的后端網(wǎng)絡(luò),還需要一個前端網(wǎng)絡(luò)來處理數(shù)據(jù)移動,這進(jìn)一步推高了交換機(jī)需求。
光纖和直連銅纜也是不可或缺的組成部分。一個128,000個GPU的集群,其前端和后端網(wǎng)絡(luò)之間可能需要超過一百萬個可插拔光纖連接。羅賓斯指出,光學(xué)產(chǎn)品約占其第四季度8億美元AI網(wǎng)絡(luò)收入的三分之一,凸顯了光纖技術(shù)的關(guān)鍵作用。
面對這一趨勢,Nvidia正積極推廣光子交換機(jī),以大幅減少所需光收發(fā)器的數(shù)量。在超大規(guī)模企業(yè)領(lǐng)域,設(shè)備供應(yīng)商的選擇并不受限制,只要滿足性能要求即可。以太網(wǎng)作為標(biāo)準(zhǔn)技術(shù),理論上允許用戶自由組合不同品牌和型號的設(shè)備。
Arista的增長勢頭同樣顯著。該公司預(yù)測全年營收將達(dá)到87.5億美元,其中AI相關(guān)銷售額占比約17%。Arista CEO Jayshree Ullal表示,隨著大型語言模型不斷擴(kuò)展到分布式訓(xùn)練和推理用例,后端和前端將逐漸融合,使得未來準(zhǔn)確區(qū)分這兩部分變得越來越困難。但她預(yù)計,到2025年,AI網(wǎng)絡(luò)總收入將超過15億美元,并將在未來持續(xù)增長。
瞻博網(wǎng)絡(luò)和HPE也在積極應(yīng)對AI基礎(chǔ)設(shè)施需求的增長。盡管在HPE合并案的背景下,瞻博網(wǎng)絡(luò)的具體需求程度難以評估,但其在AI領(lǐng)域的參與度不容忽視。而Nvidia,作為GPU領(lǐng)域的領(lǐng)頭羊,不僅推動了以太網(wǎng)交換機(jī)的銷售,還通過2019年對Mellanox的69億美元收購,成為AI網(wǎng)絡(luò)領(lǐng)域的重要玩家。在第一季度,Nvidia的網(wǎng)絡(luò)銷售額環(huán)比增長64%,達(dá)到約50億美元。
Dell'Oro集團(tuán)預(yù)測,到2030年,AI網(wǎng)絡(luò)將推動近800億美元的網(wǎng)絡(luò)銷售額。這一預(yù)測無疑為網(wǎng)絡(luò)供應(yīng)商注入了強(qiáng)大的信心,只要AI泡沫不破裂,他們將迎來一個充滿機(jī)遇的黃金時代。