近日,小紅書在人工智能領域邁出了重要一步,正式對外宣布其自主研發的dots.llm1大模型已成功開源。這款大模型不僅擁有令人矚目的1420億參數混合專家模型(MoE)架構,還配備了高達11.2萬億token的高質量訓練數據,彰顯了小紅書在技術研發上的深厚實力。
dots.llm1模型在多項性能測試中展現出了與阿里Qwen 3模型不相上下的實力,特別是在中文任務處理方面,其表現尤為突出。在權威的CLUEWSC評測中,dots.llm1模型取得了92.6分的優異成績,這一分數不僅證明了模型在中文語言理解方面的強大能力,也將其推至了業界的領先地位。
為了提升模型的計算效率,小紅書的研發團隊采用了多項創新技術。其中,Interleaved 1F1B with AlltoAll overlap和Grouped GEMM優化等技術的引入,顯著提高了模型的運算速度和性能。這些技術優化不僅確保了模型在處理大規模數據時的高效性,也為后續的模型迭代和優化奠定了堅實的基礎。
dots.llm1模型的開源,是小紅書對技術開放和共享理念的踐行。小紅書表示,希望通過此舉推動人工智能技術的普及和發展,為更多的開發者提供優質的模型資源和研究平臺。同時,這也展示了小紅書在技術創新和生態建設方面的堅定決心和長遠規劃。
據了解,小紅書的hi lab團隊將繼續致力于dots.llm1模型的優化和完善工作。未來,團隊將探索更稀疏的混合專家(MoE)層等先進技術,以進一步提升模型的性能和適用性。小紅書還計劃為社區貢獻更多全模態大模型資源,為人工智能技術的多元化應用和發展貢獻力量。