【ITBEAR科技資訊】06月05日消息,華為公司計劃于7月7日舉行的華為云開發(fā)者大會(HDC.Cloud 2023)上發(fā)布內測版的全新產(chǎn)品,名為"盤古Chat"。這款多模態(tài)千億級大模型產(chǎn)品將直接與ChatGPT進行競爭,并主要針對ToB/G政企端客戶。
華為盤古Chat是國內科技巨頭繼阿里和百度之后參與國產(chǎn)大模型軍備競賽的最新進展。憑借華為的技術能力,盤古Chat有望成為國內技術能力最強的ChatGPT產(chǎn)品之一,同時也將為華為的生態(tài)產(chǎn)業(yè)鏈企業(yè)帶來益處。
據(jù)了解,盤古大模型的立項始于2020年11月,華為內部團隊為其確定了三項關鍵的核心設計原則。首先,模型規(guī)模龐大,能夠吸納海量數(shù)據(jù);其次,網(wǎng)絡結構強大,能夠充分發(fā)揮模型的性能;最后,具備優(yōu)秀的泛化能力,能夠真實應用于各行各業(yè)的工作場景。
據(jù)ITBEAR科技資訊了解,在與其他廠商的比較中,華為具備完整的產(chǎn)業(yè)鏈和強大的算力調配能力,這可能成為其在盤古Chat上的優(yōu)勢。據(jù)浙商證券披露,為了訓練千億參數(shù)的盤古大模型,華為團隊調用了超過2000塊昇騰910芯片,進行了超過兩個月的數(shù)據(jù)訓練。據(jù)華為內部稱,每年訓練大模型時,調用的GPU/TPU卡數(shù)量超過4000片,3年的大模型算力成本高達9.6億元人民幣。
值得一提的是,盤古大模型的訓練成本較高,因為其參數(shù)規(guī)模非常龐大。然而,它在中文語言處理方面表現(xiàn)出較高的準確度和質量。
綜上所述,華為即將發(fā)布的盤古Chat多模態(tài)千億級大模型產(chǎn)品有望成為國內技術能力最強的ChatGPT產(chǎn)品之一。華為的完整產(chǎn)業(yè)鏈和強大算力調配能力將為該產(chǎn)品帶來競爭優(yōu)勢,并為華為生態(tài)產(chǎn)業(yè)鏈企業(yè)帶來機遇。