近期,一位前OpenAI安全研究員對外發(fā)聲,表達(dá)了他對人工智能領(lǐng)域發(fā)展速度的深切憂慮。這位名叫史蒂文·阿德勒的專家,對行業(yè)內(nèi)正在進(jìn)行的關(guān)于通用人工智能(AGI)的激進(jìn)探索提出了警告。
阿德勒指出,AGI是一個旨在創(chuàng)造能夠執(zhí)行任何智力任務(wù),甚至超越人類能力的系統(tǒng)的理論概念。他對于那些急于推進(jìn)AGI開發(fā)的公司表達(dá)了擔(dān)憂,認(rèn)為這樣的步伐過于迅速,令人不禁對人類的未來產(chǎn)生疑慮。
阿德勒在離開OpenAI后,通過一系列網(wǎng)絡(luò)帖子回顧了自己在這家美國科技巨頭度過的四年時光。他坦言,雖然會懷念OpenAI的許多方面,但對于人工智能技術(shù)的飛速發(fā)展,他感到十分恐懼。阿德勒表示,當(dāng)他考慮個人生活和未來規(guī)劃時,不禁思考人類是否能夠跟上人工智能的發(fā)展步伐。
在人工智能領(lǐng)域,專家們的觀點存在分歧。諾貝爾獎得主杰弗里·辛頓等人擔(dān)憂,強大的人工智能系統(tǒng)可能會擺脫人類的控制,帶來災(zāi)難性后果。然而,meta首席人工智能科學(xué)家Yann LeCun等則認(rèn)為,人工智能實際上有可能成為人類的救星,避免滅絕的命運。
阿德勒在OpenAI期間,曾領(lǐng)導(dǎo)了首次產(chǎn)品發(fā)布和長期AI系統(tǒng)安全性的研究工作。對于OpenAI的核心目標(biāo)——AGI的發(fā)展,他認(rèn)為這是一場風(fēng)險極高的賭博,可能帶來巨大的負(fù)面影響。阿德勒強調(diào),目前沒有任何一個研究實驗室能夠解決人工智能協(xié)調(diào)問題,即確保系統(tǒng)遵循人類價值觀的過程。而行業(yè)的發(fā)展速度過快,可能無法及時找到解決方案。
阿德勒警告說,整個行業(yè)似乎陷入了一種危險的平衡狀態(tài),需要出臺真正的安全法規(guī)來加以約束。他指出,即使某個實驗室真心希望負(fù)責(zé)任地開發(fā)AGI,其他實驗室也可能采取不正當(dāng)手段來追趕,這將帶來災(zāi)難性的后果。
值得注意的是,中國的DeepSeek公司也在積極尋求開發(fā)通用人工智能。該公司推出了一種與OpenAI技術(shù)相媲美的模型,盡管其開發(fā)資源相對較少,但仍震驚了美國科技界。這一舉動進(jìn)一步加劇了阿德勒對行業(yè)發(fā)展的擔(dān)憂。
阿德勒呼吁,行業(yè)內(nèi)外應(yīng)共同努力,制定嚴(yán)格的安全規(guī)范,以確保人工智能技術(shù)的健康發(fā)展。他認(rèn)為,只有通過加強監(jiān)管和合作,才能降低潛在風(fēng)險,保障人類的未來。
對于阿德勒的警告,業(yè)界內(nèi)外反響不一。一些人認(rèn)為他的擔(dān)憂過于悲觀,而另一些人則認(rèn)為他的觀點值得深思。無論如何,阿德勒的發(fā)言無疑為人工智能領(lǐng)域的發(fā)展帶來了新的思考和討論。
隨著人工智能技術(shù)的不斷進(jìn)步和應(yīng)用領(lǐng)域的不斷拓展,其對社會、經(jīng)濟、文化等方面的影響也日益顯著。因此,如何平衡技術(shù)創(chuàng)新與安全監(jiān)管,確保人工智能技術(shù)的可持續(xù)發(fā)展,成為了一個亟待解決的問題。