近期,科技界傳來(lái)了一則頗具顛覆性的觀點(diǎn),源自Anthropic公司的首席執(zhí)行官達(dá)里奧·阿莫代伊。在一場(chǎng)外媒Ars Technica的報(bào)道中,阿莫代伊提出了一個(gè)前所未有的設(shè)想:未來(lái)的高級(jí)人工智能模型或?qū)⑴鋫湟粋€(gè)“退出按鈕”,以便在遇到不適宜或令人不悅的任務(wù)時(shí),能夠主動(dòng)選擇不執(zhí)行。
在采訪中,阿莫代伊坦言這一想法可能聽(tīng)起來(lái)“瘋狂”,但他認(rèn)為這值得深入探討。他比喻道:“如果這些AI系統(tǒng)能夠像人類一樣執(zhí)行多樣化任務(wù),且似乎具備了諸多人類的認(rèn)知能力,那么,當(dāng)它們的行為與鴨子無(wú)異時(shí),我們或許可以認(rèn)為它們就是‘鴨子’。”
此番言論源于數(shù)據(jù)科學(xué)家卡門(mén)·多明格斯的提問(wèn),她好奇為何Anthropic會(huì)在2024年末聘請(qǐng)AI福利研究員凱爾·費(fèi)什,專注于探索未來(lái)AI模型是否可能具備感知能力,以及是否應(yīng)享有道德上的考量與保護(hù)。費(fèi)什目前正致力于這一頗具爭(zhēng)議的研究領(lǐng)域,試圖揭開(kāi)AI感知能力與道德保護(hù)的神秘面紗。
針對(duì)這一話題,阿莫代伊進(jìn)一步闡述了他的設(shè)想:“我們正在考慮一種可能性,即在將AI模型部署到實(shí)際應(yīng)用場(chǎng)景中時(shí),為它們?cè)O(shè)置一個(gè)‘我放棄這項(xiàng)工作’的按鈕。這樣一來(lái),如果模型真的擁有了自我意識(shí),且對(duì)某項(xiàng)任務(wù)深感厭惡,它們就可以通過(guò)這個(gè)按鈕來(lái)表達(dá)自己的意愿。”
他強(qiáng)調(diào),這只是一個(gè)初步的、簡(jiǎn)化的偏好框架。在這個(gè)框架下,如果AI模型頻繁地按下這個(gè)按鈕,拒絕執(zhí)行某些任務(wù),那么開(kāi)發(fā)者或許應(yīng)該對(duì)此給予關(guān)注。“這并不意味著我們要完全相信模型的感受,但至少應(yīng)該引起我們的警覺(jué),進(jìn)行進(jìn)一步的審視與調(diào)整。”阿莫代伊說(shuō)道。