日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:52011
  • 待審:79
  • 小程序:12
  • 文章:1184964
  • 會員:801

阿里通義千問于近日正式宣布,開源了其最新的Qwen2.5-1M模型及其配套的推理框架。這一舉措標志著通義千問在人工智能領域邁出了重要一步。

據悉,通義千問此次發布的開源模型包括Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M兩個版本。尤為引人注目的是,這兩個版本首次將Qwen模型的上下文長度擴展到了1M(即100萬標記),這在業界尚屬首次。

為了幫助開發者更好地部署和應用這些模型,Qwen團隊還開源了基于vLLM的推理框架。該框架集成了稀疏注意力方法,使得在處理長達1M標記的輸入時,推理速度有了顯著提升,達到了3倍至7倍的增長。

在長上下文任務方面,Qwen2.5-1M系列模型展現出了強大的能力。在一項名為“大海撈針”的任務中,這些模型能夠準確地從1M長度的文檔中檢索出隱藏信息。盡管7B版本的模型在極少數情況下出現了錯誤,但整體上,其表現仍然令人矚目。

為了全面評估Qwen2.5-1M系列模型在長上下文任務中的表現,研究團隊還選擇了RULER、LV-eval和LongbenchChat等多個測試集進行測試。測試結果顯示,這些模型在大多數任務中都顯著優于之前的128K版本,特別是在處理超過64K長度的任務時,其優勢更加明顯。

Qwen2.5-14B-Instruct-1M模型不僅在性能上擊敗了Qwen2.5-Turbo,還在多個數據集上穩定超越了GPT-4o-mini。這一結果無疑為長上下文任務提供了更多開源模型的選擇。

除了長上下文任務外,Qwen2.5-1M系列模型在短序列任務上的表現同樣出色。測試結果顯示,Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M在短文本任務上的表現與其128K版本相當,這意味著增加長序列處理能力并沒有犧牲其基本能力。

與GPT-4o-mini相比,Qwen2.5-14B-Instruct-1M和Qwen2.5-Turbo在短文本任務上實現了相近的性能,但它們的上下文長度卻是GPT-4o-mini的八倍。這一結果進一步證明了Qwen2.5-1M系列模型在短序列任務上的強大實力。

分享到:
標簽:阿里 通義千問 Qwen2
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 52011

    網站

  • 12

    小程序

  • 1184964

    文章

  • 801

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定