要點:
前谷歌科學家Yi Tay領導的團隊發布了21B的多模態語言模型Reka Flash,性能媲美Gemini Pro和GPT-3.5。
Reka Flash在多語言推理和視覺基準測試中表現出色,優于其他大型模型。
Reka Edge是一個更緊湊的7B模型,適用于本地部署和延遲敏感應用。
(ChinaZ.com)2月14日 消息:Yi Tay領導的團隊發布了21B的多模態語言模型Reka Flash,其性能與Gemini Pro和GPT-3.5相媲美。這一模型在多個基準測試中取得了出色的成績,尤其在多語言推理和視覺基準測試中表現突出,超越了其他大型模型。與此同時,團隊還推出了Reka Edge,這是一個參數更少、效率更高的7B模型,適用于資源受限的場景,如本地部署。Reka團隊的發布標志著他們在構建先進多模態語言模型的路上邁出了重要一步,為接下來的研究奠定了基礎。
體驗地址:https://chat.reka.ai/auth/login
首先,Yi Tay領導的團隊發布了Reka Flash,這是一個21B的多模態語言模型,具有與Gemini Pro和GPT-3.5相媲美的性能。他們用相對有限的資源從零開始訓練了這個模型,展現出了令人矚目的技術實力。
其次,Reka Flash在多個基準測試中表現出色,尤其在多語言推理和視覺基準測試方面表現突出,超越了其他大型模型。這表明Reka Flash在處理多模態數據和多語言任務上具有很高的適用性和效率。
此外,Reka團隊還提出了Reka Edge,這是一個更為緊湊的7B模型,適用于本地部署和資源受限的場景。這一舉措進一步豐富了他們的產品線,滿足了不同場景下的需求。
總的來說,Reka團隊的發布標志著他們在多模態語言模型領域的重要進展,為未來的研究和應用奠定了堅實的基礎。這也預示著在人工智能領域,特別是在自然語言處理和計算機視覺方向,將迎來更多創新和突破。