【ITBEAR】阿里云近日宣布,其開(kāi)源的通義代碼模型Qwen2.5-Coder在多個(gè)權(quán)威榜單上取得了卓越成績(jī),再次印證了該模型在開(kāi)源領(lǐng)域的領(lǐng)先地位。據(jù)悉,該模型自開(kāi)源以來(lái),僅兩天時(shí)間便吸引了全球開(kāi)發(fā)者的熱烈關(guān)注,模型下載量迅速突破25萬(wàn)次,成功登頂Hugging Face趨勢(shì)榜及Github趨勢(shì)榜單。
Qwen2.5-Coder模型提供了6個(gè)不同尺寸的版本,以滿足不同開(kāi)發(fā)者的需求。這些版本在Big Code Models、SAFIM、evalPlus等多個(gè)權(quán)威評(píng)測(cè)榜單上均展現(xiàn)出了出色的性能,特別是在代碼生成、復(fù)雜編程任務(wù)處理以及代碼修復(fù)方面表現(xiàn)尤為突出。
在evalPlus榜單上,Qwen2.5-Coder的32B-Instruct模型憑借出色的代碼生成能力,成功奪得開(kāi)源第一名。同時(shí),在BigCodeBench排行榜上,該模型也刷新了開(kāi)源模型在復(fù)雜編程任務(wù)方面的最佳成績(jī)。在Aider大模型榜單中,32B-Instruct模型再次以其卓越的代碼修復(fù)能力摘得開(kāi)源冠軍。
在Hugging Face的Big Code Models Leaderboard榜上,Qwen2.5-Coder模型同樣展現(xiàn)出了強(qiáng)大的競(jìng)爭(zhēng)力。其中,32B-Instruct模型和32B-Base模型分別位列第一和第二,而32B-Base模型還在語(yǔ)法感知填空(SAFIM)排行榜上斬獲總冠軍。
Qwen2.5-Coder的開(kāi)源引發(fā)了全球開(kāi)發(fā)者的熱烈反響。許多開(kāi)發(fā)者在各大平臺(tái)上積極分享自己的使用體驗(yàn),對(duì)該模型的表現(xiàn)贊不絕口。他們稱贊32B-Instruct模型具有“神級(jí)表現(xiàn)”,甚至在某些方面超越了其他知名模型。同時(shí),Qwen2.5-Coder也被譽(yù)為“開(kāi)發(fā)者的神兵利器”,有望徹底改變AI編程的游戲規(guī)則。
隨著Qwen2.5-Coder的持續(xù)走紅,其在全球范圍內(nèi)的影響力不斷擴(kuò)大。越來(lái)越多的開(kāi)發(fā)者開(kāi)始嘗試使用這一強(qiáng)大的開(kāi)源模型,以期在AI編程領(lǐng)域取得更多突破。