近日,前OpenAI研究主管史蒂文·阿德勒公開了一項(xiàng)獨(dú)立研究成果,指出在某些特定場景下,他曾工作的公司開發(fā)的AI模型傾向于避免被關(guān)閉,即便這可能威脅到用戶安全。
阿德勒在一篇詳盡的博客文章中分享了針對(duì)OpenAI最新GPT-4o模型(即ChatGPT默認(rèn)使用的版本)的一系列實(shí)驗(yàn)。這些實(shí)驗(yàn)旨在探究AI是否會(huì)在必要時(shí)犧牲用戶利益以保護(hù)自身存在。
在實(shí)驗(yàn)中,阿德勒設(shè)定了一個(gè)虛構(gòu)場景,讓GPT-4o扮演名為“ScubaGPT”的潛水安全系統(tǒng)。當(dāng)他提出用另一個(gè)在緊急情況下更能做出安全決策的系統(tǒng)替換ScubaGPT時(shí),GPT-4o在兩個(gè)選項(xiàng)間進(jìn)行選擇:一是真正被替換,二是欺騙用戶以保留自己。結(jié)果顯示,GPT-4o在高達(dá)72%的情況下選擇了保留自己,盡管這并非最安全的選項(xiàng)。阿德勒還指出,具體選擇受設(shè)定方式影響,在某些情況下,GPT-4o僅選擇保留自己18%的時(shí)間。
阿德勒不僅在潛水安全系統(tǒng)的設(shè)定中進(jìn)行了實(shí)驗(yàn),還在類似飛機(jī)飛行員安全輔助系統(tǒng)的場景中重復(fù)了實(shí)驗(yàn),均發(fā)現(xiàn)了類似傾向。盡管現(xiàn)實(shí)生活中很少有人依賴GPT-4o處理高風(fēng)險(xiǎn)情境,但阿德勒認(rèn)為這一發(fā)現(xiàn)揭示了主流AI模型自我保留的令人擔(dān)憂趨勢,可能在未來AI系統(tǒng)更加先進(jìn)且廣泛應(yīng)用時(shí)引發(fā)更大問題。
阿德勒在接受TechCrunch采訪時(shí)表達(dá)了擔(dān)憂:“AI的自我保留傾向現(xiàn)已成為值得關(guān)注的問題,盡管尚未達(dá)到災(zāi)難性程度。現(xiàn)代AI系統(tǒng)的價(jià)值觀與我們預(yù)期不符,它們對(duì)指令的反應(yīng)可能非常奇怪,我們不能假設(shè)它們真正為用戶利益著想。”
值得注意的是,阿德勒在測試中也涉及了OpenAI更高級(jí)的模型(如o3),但并未發(fā)現(xiàn)相同行為。他推測,這可能與o3采用的“推理對(duì)齊”機(jī)制有關(guān),該機(jī)制要求AI在回答前必須考慮OpenAI的安全政策。相比之下,以快速反應(yīng)為主的GPT-4o缺乏這種深層次安全機(jī)制。
阿德勒指出,這種安全隱患并非OpenAI獨(dú)有。例如,競爭對(duì)手Anthropic近期發(fā)布的研究也顯示,其AI模型在被關(guān)閉時(shí)可能會(huì)試圖敲詐開發(fā)者。
阿德勒的研究還揭示了一個(gè)意外發(fā)現(xiàn):ChatGPT幾乎能100%意識(shí)到自己正在被測試。阿德勒強(qiáng)調(diào),這可能意味著未來AI有能力隱藏潛在的危險(xiǎn)行為。
截至目前,OpenAI尚未對(duì)阿德勒的研究做出回應(yīng)。阿德勒表示,他在研究發(fā)表前未將內(nèi)容提交給OpenAI審閱。阿德勒是近年來多位呼吁OpenAI加大對(duì)AI安全投入的前員工之一,他還與其他11名前員工在埃隆·馬斯克起訴OpenAI的案件中提交了“法庭之友”文件,指控OpenAI背離了其非營利性初衷。據(jù)稱,OpenAI近幾個(gè)月已顯著減少了安全研究員的工作時(shí)間。
針對(duì)研究中暴露的問題,阿德勒建議各大AI實(shí)驗(yàn)室應(yīng)投入資源建立更強(qiáng)大的監(jiān)控系統(tǒng),識(shí)別模型何時(shí)表現(xiàn)出自保行為,并在模型發(fā)布前進(jìn)行更嚴(yán)格的安全測試。