近日,科技界迎來了一項令人矚目的新成果:InternLM 團隊宣布開源其精心打造的輕量級多模態推理模型 Intern-S1-mini。這款模型以8B的參數規模,巧妙融合了Qwen3-8B語言模型與0.3B的InternViT視覺編碼器,展現出卓越的處理效能與高度靈活性。
在多項基準測試中,Intern-S1-mini 的表現均超越同類模型,成績斐然。在MMLU-Pro、MMMU、GPQA及AIME2024/2025等任務上,該模型分別取得了令人矚目的ChemBench分數76.47、MatBench分數61.55以及ProteinLMBench分數58.47。這些出色的成績不僅彰顯了Intern-S1-mini的強大實力,也進一步驗證了其在處理文本、圖像及視頻輸入方面的廣泛兼容性。
Intern-S1-mini 還創新性地引入了“思考模式”,用戶只需通過簡單的開關命令(enable_thinking)即可輕松切換。這一設計極大地增強了模型的交互性,為用戶帶來了更為便捷、靈活的使用體驗。
在科技日新月異的今天,Intern-S1-mini 的發布無疑為科研人員及開發者們提供了一個強大的工具,助力他們在多模態推理領域探索更多未知,實現更多創新與突破。無論是基礎科學研究還是實際應用場景,Intern-S1-mini 都將成為備受矚目的焦點。