近期,通義靈碼迎來了一次重要更新,正式推出了全新的模型選擇功能,除了繼續(xù)支持DeepSeek滿血版V3和R1外,還引入了備受矚目的Qwen2.5-Max模型。這一變化,無疑為用戶帶來了更多選擇和更強(qiáng)大的功能體驗(yàn)。
在業(yè)界知名的Chatbot Arena基準(zhǔn)測試平臺(tái)上,Qwen2.5-Max的表現(xiàn)尤為亮眼。在最新公布的大模型盲測榜單中,它不僅超越了DeepSeek-V3、Open AI的o1-mini以及Claude-3.5-Sonnet等強(qiáng)勁對(duì)手,還在數(shù)學(xué)和編程等單項(xiàng)能力測試中奪得了榜首的位置。用戶只需在通義靈碼的智能問答或AI程序員窗口,點(diǎn)擊模型選擇下拉菜單,即可輕松體驗(yàn)Qwen2.5-Max的強(qiáng)大功能。
通義靈碼,作為一款基于通義大模型的AI研發(fā)輔助工具,一直以來都以其代碼智能生成、研發(fā)智能問答、多文件代碼修改以及任務(wù)自主執(zhí)行等能力著稱。此次內(nèi)置Qwen2.5-Max模型后,其編程能力、速度和準(zhǔn)確率均得到了顯著提升。在Arena-Hard、LiveBench、LiveCodeBench、GPQA-Diamond及MMLU-Pro等主流基準(zhǔn)測試中,Qwen2.5-Max的表現(xiàn)與Claude-3.5-Sonnet不相上下,甚至全面超越了GPT-4o、DeepSeek-V3以及Llama-3.1-405B等模型。
尤其在編程相關(guān)的基準(zhǔn)測試中,Qwen2.5-Max展現(xiàn)出了卓越的性能。無論是在Arena-Hard、LiveBench還是LiveCodeBench等測試中,它都取得了領(lǐng)先的成績。同時(shí),在MMLU-Pro等其他評(píng)估項(xiàng)目中,Qwen2.5-Max也展現(xiàn)出了強(qiáng)大的競爭力。
為了更直觀地展示Qwen2.5-Max的優(yōu)勢,通義靈碼還將它與目前領(lǐng)先的開源MoE模型DeepSeek V3、最大的開源稠密模型Llama-3.1-405B以及同樣位列開源稠密模型前列的Qwen2.5-72B進(jìn)行了對(duì)比。結(jié)果顯示,在大多數(shù)基準(zhǔn)測試中,通義靈碼的基座模型Qwen2.5-Max都展現(xiàn)出了顯著的優(yōu)勢。
作為國內(nèi)首個(gè)真正落地的AI程序員,通義靈碼自上線以來便展現(xiàn)出了諸多優(yōu)勢。它支持VS Code、JetBrains IDEs等主流開發(fā)工具,實(shí)現(xiàn)了前后端開發(fā)的全覆蓋。通過全程對(duì)話協(xié)作的方式,通義靈碼能夠幫助開發(fā)者從0到1完成復(fù)雜編碼任務(wù),如需求實(shí)現(xiàn)、問題修復(fù)以及批量生成單元測試等多文件級(jí)編碼任務(wù)。這得益于Qwen2.5-Max和DeepSeek滿血版等強(qiáng)大底層模型的加持,為開發(fā)者提供了更高效、便捷的編程輔助體驗(yàn)。
目前,通義靈碼已經(jīng)內(nèi)置了DeepSeek滿血版以及Qwen2.5-Max模型,誠邀廣大開發(fā)者下載通義靈碼插件,親身體驗(yàn)其全面而強(qiáng)大的編程能力。