【ITBEAR科技資訊】6月7日消息,阿里云今日公布了一項重要消息,他們已成功研發(fā)出Qwen2,這是一款全新的開源模型,其性能超越了美國的開源Llama3以及中國的其他閉源模型,并且現(xiàn)已提供免費下載。
阿里云在公告中表示,經(jīng)過數(shù)月的持續(xù)努力,Qwen系列模型已從Qwen1.5升級至Qwen2,實現(xiàn)了顯著的進步。在此次升級中,阿里云推出了五個不同尺寸的預(yù)訓(xùn)練和指令微調(diào)模型,分別是Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。這些模型不僅在中文和英語上進行了訓(xùn)練,還涵蓋了其他27種語言的高質(zhì)量數(shù)據(jù),大大增強了其多語言能力。
據(jù)ITBEAR科技資訊了解,Qwen2在各種評測基準上都展現(xiàn)出了領(lǐng)先的表現(xiàn),其代碼理解和數(shù)學能力也有了顯著的提升。此外,新款模型還增大了對上下文長度的支持,最高可處理達128K tokens的信息。具體來說,Qwen2-72B-Instruct能夠出色地處理128k上下文長度內(nèi)的信息抽取任務(wù),Qwen2-7B-Instruct在處理長達128k的上下文時表現(xiàn)近乎完美,而Qwen2-57B-A14B-Instruct則能處理64k的上下文長度。對于系列中的兩個較小模型,它們也支持高達32k的上下文長度。
目前,Qwen2系列模型已經(jīng)在Hugging Face和ModelScope平臺上同步開源,供全球開發(fā)者和研究人員免費下載和使用。阿里云還特意強調(diào)了此次模型許可的多樣性,除了Qwen2-72B仍采用之前的Qianwen License外,其余模型均采用了Apache 2.0的許可。這一舉措旨在推動Qwen2模型在全球范圍內(nèi)的廣泛應(yīng)用和商業(yè)落地,從而進一步促進人工智能技術(shù)的發(fā)展。