隨著人工智能技術的蓬勃發展,數據中心運營商正面臨著前所未有的挑戰。新一代技術的耗電量巨大,正在逐步重塑數據中心的架構,并深刻影響著支撐其運行的供應鏈體系。
大規模且往往是定制化的解決方案需求激增,這正在悄然改變供應商的動態和整個生態系統。同時,加速實現價值的壓力使得每個決策階段都充滿了緊迫感,數據中心運營商所處的環境變得愈發復雜、多變且難以預測,這要求他們必須具備更高的敏捷性和靈活性。
數據中心基礎設施的持續演進,無疑對其背后的供應鏈提出了同步發展的要求,時間成為了最為關鍵的因素。特別是在高密度機架的推動下,創新正在以前所未有的速度進行。
在創新驅動和實際需求的雙重推動下,芯片制造商和數據中心運營商正積極籌備迎接1MW IT機架的到來。云超大規模服務提供商已經攜手合作,共同制定新標準和架構,以支持這一部署進程。據英偉達預測,到2027年,人工智能機架的功耗或將攀升至600kW,而到本十年末,1MW機架將更廣泛地進入市場。
目前,早期版本的1MW機架已在試點運行中。這些機架能夠處理高強度的人工智能和高性能計算工作負載,其耗電量和產生的熱量均前所未有。在此背景下,三個關鍵的創新領域逐漸凸顯:高壓直流供電、先進液冷技術以及電源與計算的分離。
高壓直流供電方面,傳統的48V至54V直流系統正被高密度環境中的±400V直流配電所取代,而800V高壓直流系統也即將面世。在液冷技術方面,直接芯片液冷系統的創新是有效管理人工智能和高性能計算熱負載的必要條件。至于電源與計算的分離,通過將電源轉換和傳輸組件移至計算機架旁邊的“邊車”機架中,可以優化計算密度、改善熱管理并提高電源效率。
向1MW機架的轉型不僅深刻影響著構成數據中心架構的產品,更在悄然改變著技術公司對供應鏈韌性的思考方式。供應鏈韌性的核心原則依然不變:數據中心運營商需要能夠可靠地采購關鍵組件、無縫應對中斷、快速擴展基礎設施,并實現環境多樣化以規避單點故障。
然而,當單個1MW機架的計算能力相當于20多個傳統50kW機架時,顯著差異便顯現了出來。如果說傳統數據中心的特點是分布式、漸進式風險,那么人工智能和高性能計算數據中心則更加依賴于集中化和相互依賴性。這種對更少但更復雜系統的依賴帶來了諸多挑戰,如故障或停機風險增加、定制化組件交付周期延長、接口競爭和技術不兼容問題以及集成機架的運輸考量等。
在冷卻技術方面,傳統風冷系統依靠風扇和CRAC/CRAH單元去除多余熱量并維持數據中心理想的環境條件。作為成熟行業,風冷系統的供應鏈已經相當完善,標準化使得互操作性和部署更加容易。然而,現代高密度機架產生的熱量已經超出了傳統系統的管理能力,而1MW機架的出現將使這一挑戰呈指數級增長。
為保持性能、能源效率和可持續性,數據中心運營商正積極轉向液冷解決方案。盡管液冷在數據中心行業仍處于早期采用階段,但隨著人工智能工作負載不斷超越傳統風冷系統的極限,液冷技術正獲得顯著的發展勢頭。這一轉型將深刻重塑供應商關系、采購流程、物流以及運營方式,數據中心運營商需要與專業供應商建立新的合作關系或深化現有合作。
采用1MW機架還可能對數據中心的選址產生影響。隨著數據中心運營商和公用事業提供商繼續應對電網前所未有的需求,他們開始探索遠離人口中心的區域。盡管電力可用性是驅動數據中心選址決策的首要因素,但天然氣儲藏和風電場等替代能源正在改變選址的考量,因為城市電網已接近容量極限。
在偏遠地區開發數據中心為運營商帶來了新的物流挑戰,如運輸路線和基礎設施可能不夠完善,倉儲設施可能無法滿足備份和緩沖庫存的需求。因此,對供應鏈韌性和彈性的主動關注將確保數據中心運營商無論選擇在何處建設新設施,都能可靠獲得現代架構所需的先進IT、電源和冷卻技術。
無縫轉換以適應技術變革、時間表調整、建筑規范變化、電源配置更新、冷卻方法改進以及空間約束的能力,是供應鏈彈性的重要標志。具備這一能力的數據中心運營商將擁有顯著的競爭優勢。