(ChinaZ.com) 11 月 10 日消息:歷史學家兼著名作者尤瓦爾·赫拉利近日向《衛(wèi)報》表示,人工智能(AI)的復雜性使其潛在危險難以預測,并可能引發(fā)具有「災難性」后果的金融危機。
圖源備注:圖片由AI生成,圖片授權(quán)服務商Midjourney
赫拉利在談及 AI 模型安全測試時提出,預見一個強大系統(tǒng)可能造成的所有問題是一個挑戰(zhàn)。他指出,與核武器不同,人工智能涉及許多危險場景,每個場景發(fā)生的可能性都相對較小,但總體上構(gòu)成了對人類文明生存的存在威脅。
《人類簡史》系列圖書的作者赫拉利,一直對 AI 發(fā)展持有關(guān)注態(tài)度。他表示,上周在布萊切利園舉行的全球 AI 安全峰會上,多國政府的聯(lián)合聲明是一個「非常重要的進步」。領(lǐng)先的政府們聚集在一起,表達了對技術(shù)的擔憂,并采取了相應行動。
他特別提到,這次峰會能夠使不僅是歐盟、英國、美國,甚至包括中國政府在內(nèi)的國家簽署聲明,這是一個非常積極的跡象。他強調(diào),如果沒有全球合作,將極難(如果不是不可能的話)遏制 AI 最危險的潛在威脅。
峰會最后達成了一個協(xié)議,包括英國和美國的 10 個政府、歐盟以及包括 ChatGPT 開發(fā)商 OpenAI 和谷歌在內(nèi)的主要 AI 公司,將合作測試先進的 AI 模型,在它們發(fā)布之前和之后進行。
赫拉利指出,AI 模型的安全測試問題在于預見一個強大系統(tǒng)可能造成的所有問題。「AI 與人類歷史上的所有先前技術(shù)不同,因為它是第一種可以自行做出決策、自行創(chuàng)造新想法、自行學習和發(fā)展的技術(shù)。幾乎可以肯定的是,即使是創(chuàng)造了這項技術(shù)的人類,也極難預見所有潛在的危險和問題。」
赫拉利指出,政府在向公眾解釋 AI 的危險時,引用了 AI 系統(tǒng)幫助制造生化武器的威脅,但還有其他可能的場景值得關(guān)注。他特別指出,金融領(lǐng)域非常適合應用人工智能系統(tǒng)——「這是 AI 的理想領(lǐng)域,因為它僅涉及數(shù)據(jù)」——并可能成為嚴重 AI 造成危機的源頭。
赫拉利進一步警告說:「如果 AI 不僅被賦予更大的控制權(quán)來管理世界的金融系統(tǒng),而且開始創(chuàng)造只有 AI 能理解的新金融工具,沒有人類能夠理解呢?」他補充說,2007-08 年金融危機是由幾乎無人理解且因此監(jiān)管不足的債務工具(如抵押債務義務)引起的。
赫拉利指出:「AI 有潛力創(chuàng)造比債務抵押債券 (CDO) 等債務工具復雜數(shù)個數(shù)量級的金融工具。想象一下,我們有一個沒有人能夠理解的金融系統(tǒng),因此也無法進行監(jiān)管。然后發(fā)生了金融危機,沒有人知道發(fā)生了什么。」
上個月,英國政府提出了對一種先進 AI 模型可能構(gòu)成的存在威脅的擔憂,該模型可能通過控制和操縱金融系統(tǒng)造成威脅。但赫拉利表示,AI 引發(fā)的金融危機不會直接摧毀人類文明。他補充說:「至少不是直接的。但如果它引發(fā)了某種戰(zhàn)爭或沖突,可能會間接地造成災難性風險——經(jīng)濟的、社會的、政治的——但本身我不會將其描述為存在主義風險。」
這位以色列作者支持暫停先進 AI 發(fā)展六個月的呼聲,并支持使人工智能公司對其產(chǎn)品造成的損害負責。他表示,焦點不應該是具體的法規(guī),而應該是擁有技術(shù)知識并能快速應對新突破的監(jiān)管機構(gòu)。
赫拉利強調(diào):「我們需要盡可能快地創(chuàng)建強大的監(jiān)管機構(gòu),能夠識別并對危險做出反應,這基于我們無法預先預測所有危險和問題并提前立法的理解。」他補充說:「這應該是主要努力方向,而不是現(xiàn)在就寫一些非常長且復雜的規(guī)定,這些規(guī)定可能在通過議會或國會時已經(jīng)過時。」
在這一構(gòu)架中,AI 安全研究所應聘請了解 AI 對世界金融潛在影響的專家,赫拉利說。
上個月,英國首相里希·蘇納克宣布成立英國 AI 安全研究所,緊隨其后,白宮也宣布計劃成立類似機構(gòu),兩者都有望在測試先進 AI 模型中發(fā)揮關(guān)鍵作用。在峰會上發(fā)言的蘇納克表示,英國需要首先了解先進模型的能力,然后再引入法律應對。