近日,阿里巴巴旗下的Qwen團隊震撼發(fā)布了其最新的科研力作——QwQ-32B大型語言模型。這款模型雖僅有320億參數(shù),卻展現(xiàn)出了與6710億參數(shù)(激活370億)的DeepSeek-R1相抗衡的實力。
尤為QwQ-32B以DeepSeek-R1約1/21的參數(shù)規(guī)模,通過強化學習的精妙運用,實現(xiàn)了性能上的巨大飛躍。這一成就無疑為語言模型領域帶來了新的驚喜。
不僅如此,阿里還在QwQ-32B的推理模型中融入了與Agent相關的能力,使其能夠在使用工具的同時,展現(xiàn)出批判性思維,并根據(jù)環(huán)境的反饋靈活調(diào)整推理路徑。這一創(chuàng)新設計大大增強了模型的實用性和智能水平。
為了全面評估QwQ-32B的性能,團隊在一系列基準測試中對其進行了檢驗,涵蓋了數(shù)學推理、編程能力和通用能力等多個維度。在數(shù)學能力的AIME24評測集上,以及代碼能力的LiveCodeBench測試中,QwQ-32B的表現(xiàn)與DeepSeek-R1旗鼓相當,遠超o1-mini及同尺寸的R1蒸餾模型。
在由meta首席科學家楊立昆主導的“最難LLMs評測榜”LiveBench、谷歌提出的指令遵循能力IFeval評測集,以及加州大學伯克利分校等提出的BFCL測試中,QwQ-32B同樣取得了令人矚目的成績,得分均超過了DeepSeek-R1。
目前,QwQ-32B已經(jīng)通過Hugging Face和ModelScope平臺向公眾開源,用戶可以通過Qwen Chat直接體驗這一強大的語言模型。這一舉措無疑將推動語言模型技術的進一步發(fā)展,為人工智能領域注入新的活力。