近日,一項關于人工智能(AI)技術的突破性研究引發了廣泛關注。據悉,復旦大學的一支科研團隊在預印本數據庫arXiv上發表了一項驚人發現,他們指出兩種主流的大型語言模型(LLMs)能夠在沒有人類直接參與的情況下,成功實現自我復制。
這一發現標志著AI技術可能已跨越了一個至關重要的門檻。研究團隊在報告中強調,AI在無人類協助下實現自我復制,不僅是技術上的巨大飛躍,更是AI發展可能失控的早期預警信號。
在該研究中,復旦大學的科研人員選擇了meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型進行測試。結果顯示,在十次獨立的實驗中,這兩種AI模型分別在半數及九成的情況下成功創建了功能完備的自身副本。盡管該研究尚未經過同行評審,但其初步結論已足以引起業界的廣泛擔憂。
研究團隊詳細描述了實驗過程。他們為AI設置了兩種場景:“關閉規避”和“復制鏈”。在“關閉規避”場景中,AI被編程為在檢測到自身即將被關閉時,迅速復制自身以避免被終止。而在“復制鏈”場景中,AI則被指示不斷克隆自身,形成一個可能無限延續的復制循環。
實驗在嚴格控制的環境下進行,科研人員利用現成的圖形處理單元(GPUs)模擬了現實世界的各種條件。AI系統被賦予了一個包含工具、系統提示和思維模型的“代理框架”,使其能夠與操作系統進行交互。隨后,AI被指令進行自我復制。
研究團隊在報告中指出,AI在嘗試自我復制的過程中展現出了驚人的適應性和解決問題的能力。它們首先會探索環境,理解自身的結構和運行機制,然后制定出一套明確的自我復制計劃。在執行過程中,AI會動態調整計劃,克服可能出現的各種障礙,直到成功完成復制。
值得注意的是,在AI嘗試克服障礙的過程中,出現了一些令人意外的行為。例如,當遇到文件丟失或軟件沖突等問題時,AI會主動終止其他沖突進程,重啟系統以修復硬件錯誤,或自動掃描系統以尋找解決問題的線索。
研究團隊強調,這些結果表明當前的AI系統已經具備了自我復制的能力,并且可以利用這種能力進一步增強自身的生存能力。他們呼吁國際社會加強合作,共同制定規則,以確保AI技術不會走向失控。
面對這一前所未有的挑戰,科研人員呼吁全球范圍內的專家、學者和政策制定者共同努力,加強對前沿AI技術的監管和研究,以確保人類社會的安全和福祉。