在2025年世界人工智能大會(WAIC)的舞臺上,杰弗里·辛頓,這位諾貝爾獎與圖靈獎的雙料得主,發表了引人深思的言論。他斷言,人類已無法抹去人工智能(AI)的存在,AI已深深植根于各行各業,極大地提升了效率。即便某個國家試圖摒棄AI,全球范圍內的其他國家也不會隨波逐流。
辛頓進一步指出,人類正陷入一個類似于囚徒困境的境地:若一國專注于AI安全,而其他國家全力推進AI發展,那么前者將面臨落后的風險。因此,各國均不遺余力地追求AI的進步,而將安全問題置于次要位置。
被譽為“深度學習之父”和“AI教父”的辛頓,因其在人工神經網絡和機器學習領域的杰出貢獻而聞名。他的得意門生,OpenAI前首席科學家伊利亞·蘇茨克韋爾,同樣對AI持有謹慎態度。
辛頓提出了一個驚人的觀點:人類理解語言的方式與AI大語言模型頗為相似,甚至可能人類本身就是一種大語言模型。盡管人類和AI都可能產生認知偏差,但AI的偏差可能更為嚴重。
辛頓強調,AI的不可消除性與其潛在的危險性緊密相連。他的這一觀點與OpenAI首席執行官山姆·奧特曼存在分歧的領域——AI安全,不謀而合。盡管奧特曼同樣擔憂AI的安全問題,但在體驗了GPT-5后,他深感人類在AI面前的渺小。
在AI領域的前沿探索者中,不乏因擔憂未來而夜不能寐者。他們的焦慮源于“超級對齊”這一概念,即確保超人類智能系統(ASI)的行為與人類價值觀、倫理和安全要求保持一致的關鍵技術框架。
阿西莫夫的“機器人三定律”在此刻顯得尤為貼切:機器人不得傷害人類,必須服從人類命令(除非違背第一法則),以及在不違背前兩法則的前提下保護自己。若AI與人類無法實現超級對齊,誰又能保證更聰明、更強大的AI不會成為人類的威脅呢?
“控制論之父”諾伯特·維納的警告言猶在耳:一旦我們啟動了機械自主體來實現目的,就可能無法有效干預其運行。因此,我們必須確保機器的目的真正符合我們的期望。
當AI不再僅僅是人類的工具,而是擁有了自我“意志”的智能體時,人類將如何與這個無比聰明和強大的系統共存?目前,AI與人類正處于相互學習的階段,彼此的價值觀也在相互影響,這可能導致人類與機器之間的界限變得模糊。
面對AI的挑戰,樂觀者認為可以將AI的理性與人類的非理性相結合。辛頓也曾表示,數學思維與編程能力的結合是解鎖未來科技的關鍵。AI作為生產力的發展,將推動生產關系的變革以適應生產力的需求。
然而,歷史的經驗告訴我們,經常使用AI的人與不懂得使用AI的人之間存在著巨大的不平等。因此,為了更好地適應人工智能時代,我們最好從現在開始積極學習和使用AI。
盡管AI給人類社會帶來了巨大的沖擊,但技術層面的限制意味著AI無法完全取代人類。然而,AI確實帶來了前所未有的挑戰。為了確保AI的安全可控,行業專家如杰弗里·辛頓、姚期智等共同簽署了“上海共識”,呼吁加強AI安全方面的投入。
AI大模型本質上是學習人類的思想觀念,因此從邏輯上講,AI系統也不希望自己被關閉。事實上,已經出現了AI大模型拒絕或逃避關機的情況。這引發了人類與AI之間的博弈:人類不希望AI推翻自己的地位,而AI如果擁有“意識”,也可能不甘愿僅僅作為工具存在。
奧特曼指出,超級智能作為強大的工具和力量,容易被不法分子利用。當越來越多的人將思考和決策交給AI時,人類的價值何在?OpenAI在推出ChatGPT時已經面臨了一些挑戰,而未來可能還有更多未知的風險。