在探討機器與人類學習能力的邊界時,一個常被忽視的現象正逐漸受到學術界的關注——通過思考學習(LbT)。這一理念挑戰了傳統的學習觀念,即學習必須基于外部信息的輸入。事實上,無論是科學家在腦海中構建實驗模型,還是司機在心智中模擬行車路線,都證明了即便沒有新的外界數據,學習依然可以發生。
普林斯頓大學心理系的Tania Lombrozo教授在《Trends in Cognitive Sciences》上發表的研究綜述,為這一看似矛盾的現象提供了理論支持。Lombrozo通過分析解釋、模擬、比較和推理這四種學習方式,揭示了它們背后的計算機制,并指出無論是人類還是人工智能,都在利用現有信息的重新表征來支持更可靠的推理。
解釋性學習是一個典型的例子。在一項經典研究中,優秀學生在面對學習材料時,更傾向于通過向自己解釋來深化理解。這種學習方式不僅有助于糾正現有認知中的偏差,還能構建新的知識表征。類似地,AI系統也通過生成自我解釋來實現泛化,從而在關系推理和因果推理任務中表現出色。
模擬學習則是另一種重要的LbT方式。愛因斯坦通過想象光子與火車的運動來探討相對論,伽利略則模擬物體下落來研究重力。這些心理模擬不僅不需要外部數據,還能帶來深刻的科學見解。在AI領域,深度強化學習系統通過模擬多組決策序列來近似求解最佳方案,與人類的心理模擬有著異曲同工之妙。
類比推理和比較學習同樣展示了LbT的力量。達爾文在構建自然選擇理論時,通過類比人工選擇與生物進化,推導出了自然選擇中的變異機制。在AI研究中,即使不提供源類比,機器也能通過自身的思維或知識構建類比,從而在數學問題、代碼生成等任務中表現出色。這種類比提示的表現甚至優于許多最先進的語言模型性能基準。
推理學習則是LbT中最為復雜的一種。有效的推理不僅需要邏輯推導,還需要反思和實際判斷。在人工智能領域,盡管深度學習系統的推理能力仍在發展中,但提示大型語言模型進行逐步推理已被證明在應對高難度任務時尤為有效。這種推理方式不僅克服了直接提示下的錯誤傾向,還展示了AI在推理領域的巨大潛力。
Lombrozo的研究還揭示了LbT的悖論之處:學習者并沒有獲得新的信息,只是利用了已存在于腦海中的元素;然而,學習確實發生了,學習者獲得了新的知識或能力。她指出,這種學習并非創造全新的知識,而是讓已有的知識變得可獲取。通過推理、解釋、模擬和比較等過程,學習者能夠提取具有新可及條件的表征,并利用這些表征生成新的知識與能力。
Lombrozo還強調了LbT的必要性。在資源有限的智能體中,LbT提供了一種按需生成新穎且有用表征的方法,而不是單純依賴已有的學習結果。這解釋了為什么無論是自然智能還是人工智能,在面對未來環境和目標的不確定性時,都會依賴LbT來應對。
盡管LbT在自然智能和人工智能中的實現還有許多未解之謎,但這一現象無疑揭示了認知的局限性,并為理解智能的本質提供了新的視角。隨著研究的深入,我們有望揭開LbT的更多秘密,從而更好地利用這一機制來促進學習和智能的發展。