近日,DeepSeek公司推出的V3模型在AI領(lǐng)域引發(fā)了廣泛關(guān)注。這款模型以驚人的訓(xùn)練成本效益——僅557.6萬,實現(xiàn)了與OpenAI O1推理模型相當?shù)男阅?。這一突破不僅在全球范圍內(nèi)引發(fā)了連鎖反應(yīng),還直接沖擊了英偉達的市場地位,導(dǎo)致其股價在1月27日暴跌17%,市值瞬間蒸發(fā)6000億美元。
盡管部分投資人擔(dān)憂DeepSeek的崛起會減少市場對先進芯片的需求,但科技界普遍持另一種觀點:高性能、低成本且開源的大模型將促進整個應(yīng)用生態(tài)的繁榮,從而長期利好英偉達。這兩種截然不同的觀點,在科技界引發(fā)了激烈的討論。
從技術(shù)層面來看,DeepSeek對英偉達、芯片行業(yè)乃至整個科技領(lǐng)域的影響遠非簡單。Inference.ai的創(chuàng)始人兼CEO John Yue指出,DeepSeek沖擊了英偉達的兩大核心壁壘——NVLink與CUDA,盡管并未完全沖垮這些壁壘,但確實打掉了英偉達的溢價。
在詳細解讀DeepSeek的技術(shù)創(chuàng)新時,加州大學(xué)戴維斯分校電子計算機工程系的助理教授、AIZip的聯(lián)合創(chuàng)始人陳羽北表示,DeepSeek的成功關(guān)鍵在于其基礎(chǔ)模型V3的能力。通過采用GRPO(分組相對策略優(yōu)化)方法,DeepSeek在R1 Zero未經(jīng)強化學(xué)習(xí)的情況下,每生成100條內(nèi)容就有約10%的成功率,這一顯著提升證明了基礎(chǔ)模型能力的重要性。
陳羽北進一步解釋說,DeepSeek在模型架構(gòu)效率上進行了重大提升,包括優(yōu)化混合專家網(wǎng)絡(luò)(MoE)的負載均衡和節(jié)省鍵值緩存(KV Cache)。這些創(chuàng)新使得DeepSeek在600多B的大模型上表現(xiàn)出色,并通過自啟發(fā)式回答和蒸餾學(xué)習(xí)的方法,成功將大模型的能力傳授給小模型,實現(xiàn)了性能的進一步提升。
關(guān)于DeepSeek對英偉達的影響,John Yue認為這是一把雙刃劍。一方面,DeepSeek的出現(xiàn)激發(fā)了更多初創(chuàng)企業(yè)探索AI應(yīng)用層面的可能性,從而增加了對GPU的需求,這對英偉達是有利的。另一方面,DeepSeek通過優(yōu)化MOE和直接調(diào)用PTX(并行線程執(zhí)行)來繞過CUDA高層API,確實沖擊了英偉達的溢價。
然而,John Yue強調(diào),英偉達的核心壁壘——NVLink和CUDA——仍然堅挺。雖然DeepSeek提供了一種可能的替代方案,但尚未出現(xiàn)能夠完全替代CUDA的通用系統(tǒng)。因此,長期來看,英偉達在GPU市場的領(lǐng)先地位仍難以撼動。
DeepSeek選擇開源其模型,這一舉措對整個AI行業(yè)產(chǎn)生了深遠影響。John Yue指出,開源降低了AI應(yīng)用的準入門檻,激發(fā)了更多開發(fā)者探索AI應(yīng)用的熱情。陳羽北也表示,開源生態(tài)對于提高AI應(yīng)用的效率至關(guān)重要,它使得開發(fā)者能夠基于開源模型快速構(gòu)建自己的應(yīng)用。
在談到DeepSeek如何降低API成本時,John Yue表示,DeepSeek從上到下進行了整套優(yōu)化,包括PTX調(diào)用、GPU切分等。這些優(yōu)化措施使得DeepSeek能夠在更低端的芯片上運行,從而大幅降低了每個Token的成本。DeepSeek還通過蒸餾學(xué)習(xí)等方法,成功將大模型的能力傳授給小模型,進一步降低了推理成本。
陳羽北還提到了小模型在未來的發(fā)展?jié)摿ΑK硎?,隨著小模型在性能上的不斷提升,它們將在更多場景中取代大模型,從而降低AI應(yīng)用的成本并提高普及程度。未來,AI基礎(chǔ)設(shè)施將形成端-邊-云的分層體系,小模型將在終端設(shè)備和邊緣端發(fā)揮重要作用。
最后,陳羽北對DeepSeek的數(shù)據(jù)構(gòu)成和訓(xùn)練細節(jié)表示了好奇。他指出,雖然DeepSeek已經(jīng)公開了部分信息,但關(guān)于數(shù)據(jù)的具體構(gòu)成和處理流程等關(guān)鍵細節(jié)仍然未披露。這些細節(jié)對于其他研究者復(fù)現(xiàn)DeepSeek的工作至關(guān)重要。