亞馬遜云計(jì)算部門AWS正積極在全球范圍內(nèi)擴(kuò)大其服務(wù)器基礎(chǔ)設(shè)施,AWS首席執(zhí)行官M(fèi)att Garman在近期的一次媒體交流中透露了這一信息。他強(qiáng)調(diào),AWS不僅已在墨西哥成功部署了一個(gè)數(shù)據(jù)中心集群,還在智利、新西蘭和沙特阿拉伯等地建設(shè)新的數(shù)據(jù)中心。
作為全球最大的計(jì)算能力和數(shù)據(jù)存儲(chǔ)租賃服務(wù)提供商,AWS在云計(jì)算市場(chǎng)占據(jù)領(lǐng)先地位,超越了微軟的Azure和谷歌云。然而,盡管AWS第一季度營(yíng)收達(dá)到292.67億美元,同比增長(zhǎng)17%,但這一增速相較于微軟Azure的21%和谷歌云的28%仍稍顯遜色。
為了保持競(jìng)爭(zhēng)力,AWS正加速擴(kuò)充其AI運(yùn)算能力,并與英偉達(dá)展開合作,增加對(duì)英偉達(dá)最新GB200芯片的儲(chǔ)備。這些芯片已經(jīng)提供給AWS客戶進(jìn)行測(cè)試,并得到了積極的反饋。據(jù)了解,GB200人工智能機(jī)架集成了36個(gè)Grace中央處理器和72個(gè)Blackwell圖形處理器,通過英偉達(dá)的NVLink通信系統(tǒng)實(shí)現(xiàn)高效連接。
Garman在交流中表示,AWS對(duì)GB200芯片的需求非常強(qiáng)勁,這反映了AWS在人工智能領(lǐng)域的持續(xù)投入和增長(zhǎng)。他還透露,AWS正在與英偉達(dá)密切合作,以確保能夠獲得足夠的芯片供應(yīng),滿足日益增長(zhǎng)的客戶需求。
在談到與其他AI公司的合作時(shí),Garman表現(xiàn)出了開放和包容的態(tài)度。他表示,AWS歡迎OpenAI的模型部署在其平臺(tái)上,盡管目前OpenAI的模型運(yùn)行在微軟的服務(wù)器上。但他也承認(rèn),OpenAI已經(jīng)獲得了探索其他合作機(jī)會(huì)的許可,如果微軟不愿意承接相關(guān)業(yè)務(wù),AWS將是一個(gè)潛在的合作伙伴。
Garman還表示,如果亞馬遜的合作伙伴Anthropic開發(fā)的AI模型Claude選擇在微軟的云平臺(tái)上部署,AWS也不會(huì)感到介意。他認(rèn)為,Claude能夠?qū)⒎?wù)部署到其他地方是一件好事,但AWS仍然是其主要的使用平臺(tái)之一。