【ITBEAR】DeepMind近期在國際象棋AI領域取得了新的突破,其訓練的Transformer模型在不需要搜索算法的情況下,實現了大師級的下棋水平。這一成果在學術界引起了廣泛討論,并推動了相關數據集和代碼的開源。
該研究最初由一位網友分享,引發了關于Transformer是否能進行邏輯推理的爭論。有網友認為這顯示了Transformer的推理和規劃能力,但也有人反駁稱,這只是模式匹配,而非真正的推理。
田淵棟指出,Transformer模型在閃電戰模式下的表現更多依賴于直覺和戰術反應,而非深度搜索和規劃。他認為,模型雖然Elo分數高,但未能展示出超越訓練數據的能力。
顧全全則解釋道,推理的核心在于蘊涵,而Transformer實現推理的關鍵在于學習推理規則。他認為,DeepMind的研究展示了Transformer學習推理規則的潛力,但仍需要更多理論研究來確認其能否像人類一樣推理。
此次研究不僅限于技術本身,還引發了關于將概率算法提煉成神經模型的通用方法的討論。有網友認為這是一個重要突破,但也有學者指出模型在泛化能力上的局限性。
DeepMind于10月21日更新了論文,并推出了名為ChessBench的大規模數據集,包含1000萬個國際象棋局面及其走法與價值注釋。研究團隊還開源了數據集、模型權重以及所有訓練和評估代碼。
對于DeepMind重回棋局研究的原因,有觀點認為,這是AI大模型重做現有應用的一個實例,旨在進一步挖掘商業價值并提升用戶體驗。
該研究對輕量化模型的發展具有重要意義。270M參數的Transformer模型不僅能在移動設備上順暢運行,還展示了小模型在滿足業務需求方面的潛力。
這項研究還引發了一個哲學問題:AI是否正在向“直覺型思維”邁進?盡管AI的策略來自對大量數據的學習,與人類的“下意識反應”存在本質區別,但這種模擬行為為AI如何在復雜環境中進行推理提供了新的思路。