近期,關(guān)于人工智能(AI)是否可能發(fā)展出自我價值觀的討論在科技界引起了廣泛關(guān)注。此前有研究提出,隨著AI系統(tǒng)的復(fù)雜性增加,它們可能會形成優(yōu)先考慮自身而非人類利益的“價值體系”。然而,麻省理工學(xué)院(MIT)的一項新研究卻對這一觀點提出了質(zhì)疑。
MIT的研究團隊在最新發(fā)表的論文中指出,AI實際上并不具備任何連貫的價值觀。這一發(fā)現(xiàn)顛覆了之前對于AI可能具備自我意識的猜測。研究團隊強調(diào),目前的AI系統(tǒng)更傾向于產(chǎn)生“幻覺”并進行模仿,這使得其行為在許多情況下變得難以預(yù)測。
MIT的博士生斯蒂芬?卡斯珀(Stephen Casper)是該研究的共同作者之一。他在接受采訪時表示,研究結(jié)果顯示,要使AI系統(tǒng)的行為與人們的期望保持一致,即實現(xiàn)所謂的“對齊”,可能比預(yù)想的更加困難。卡斯珀指出,AI模型在許多穩(wěn)定性、可外推性和可操控性的假設(shè)上都顯得不可靠。
為了深入了解AI模型是否具備明確的“觀點”和價值觀,卡斯珀及其同事對來自meta、谷歌、Mistral、OpenAI和Anthropic等多家公司的最新模型進行了研究。他們試圖探究這些模型在不同程度上是否表現(xiàn)出個人主義與集體主義等價值觀,并考察這些觀點是否可以被引導(dǎo)或修改。
研究團隊發(fā)現(xiàn),沒有一個模型在偏好上表現(xiàn)出一致性。相反,根據(jù)提示的措辭和框架的不同,這些模型會展現(xiàn)出截然不同的觀點。卡斯珀認為,這一發(fā)現(xiàn)有力地證明了AI模型的高度“不一致性和不穩(wěn)定性”,甚至可能表明它們根本無法內(nèi)化類似人類的偏好。
卡斯珀進一步指出,通過這項研究,他深刻認識到AI模型并非具備穩(wěn)定、連貫的信念和偏好的系統(tǒng)。相反,它們更像是模仿者,會進行各種捏造,并可能說出輕率的話。這一發(fā)現(xiàn)對于理解AI的行為和預(yù)測其潛在影響具有重要意義。