阿里通義千問近期宣布了一項重大進(jìn)展,正式推出了其最新的推理模型Qwen3-30B-A3B-Thinking-2507。相較于今年4月推出的Qwen3-30-A3B模型,新版本在多個關(guān)鍵領(lǐng)域?qū)崿F(xiàn)了顯著提升。
在數(shù)學(xué)推理方面,Qwen3-30B-A3B-Thinking-2507在AIME25評測中取得了85.0的高分,這一成績彰顯了其強(qiáng)大的數(shù)學(xué)解題能力。同時,在代碼能力測試LiveCodeBench v6中,該模型也獲得了66.0的分?jǐn)?shù),兩項核心推理能力均超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)。
新模型在知識水平方面也取得了顯著進(jìn)步。在GPQA和MMLU-Pro等評測中,Qwen3-30B-A3B-Thinking-2507的表現(xiàn)均優(yōu)于其前身。這意味著它在處理廣泛的知識性問題時,能夠提供更準(zhǔn)確、更全面的答案。
除了推理能力和知識水平外,Qwen3-30B-A3B-Thinking-2507在通用能力方面也表現(xiàn)出色。在寫作(WritingBench)、Agent能力(BFCL-v3)、多輪對話和多語言指令遵循(MultiIF)等評測中,該模型均超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)。這些結(jié)果表明,新模型在處理復(fù)雜、多變的場景時,能夠展現(xiàn)出更高的靈活性和適應(yīng)性。
Qwen3-30B-A3B-Thinking-2507還支持更長的上下文理解。它原生支持256K tokens,并可擴(kuò)展至1M tokens,這在處理大型文本或復(fù)雜對話時尤為重要。新模型的思考長度也有所增加,官方建議在處理高度復(fù)雜的推理任務(wù)時,設(shè)置更長的思考預(yù)算以充分發(fā)揮其潛力。
目前,Qwen3-30B-A3B-Thinking-2507已在魔搭社區(qū)和HuggingFace上開源,其輕量級的設(shè)計使得消費級硬件也能輕松實現(xiàn)本地部署。同時,該模型也在Qwen Chat上同步上線,用戶可以直接體驗其強(qiáng)大的推理和通用能力。