【ITBEAR科技資訊】7月6日消息,OpenAI,ChatGPT的背后開發團隊,宣布將構建全新的研究分支,以加大在AI安全性方面的投入。其目標是建立一種AI監督AI的機制,以提升AI技術對人類的安全性。
OpenAI聯合創始人伊利亞·蘇茨凱弗(Ilya Sutskever)與AI對齊項目負責人簡·萊克(Jan Leike)通過官方博客,對AI超級智能化帶來的可能危險發出警告。他們指出,未來超級智能AI或可能使人類力量無法抗衡,而目前人類還無法控制這種潛在的超級智能AI。
據ITBEAR科技資訊了解,兩位負責人進一步預見,未來十年內有可能出現超越人類智能的AI。為防止AI失控,人類需要研發更先進的技術,并在AI對齊的問題上取得重大突破。AI對齊是指AI系統的目標應與人類價值觀和意圖一致。
OpenAI預計,未來四年將把20%的計算能力投入到這一領域,同時還計劃組建一支專門的“超對齊”團隊來進行相關工作。這個新團隊的主要任務,將是培養出達到“人類水平”的AI對齊研究員,然后用巨大的計算能力來推進他們的發展。
這種“人類水平”的AI對齊研究員,將采用人工反饋進行訓練,然后協助人類進行AI系統的評估,最后對AI系統進行實際的對齊研究。
然而,AI安全倡導者康納·萊希(Connor Leahy)對OpenAI的這一計劃表示擔憂。他認為,如果最初的人類水平AI失控,可能會造成無法挽回的后果,因此在開發人類水平的AI之前,必須首先解決AI對齊問題。
對于AI技術的安全性,公眾始終持謹慎態度。今年四月,一批AI行業領導者和專家簽署公開信,要求暫停開發比GPT-4更強大的AI系統六個月,原因正是其可能對社會造成的潛在風險。據益普索5月的調查顯示,超過三分之二的美國人對AI可能帶來的負面影響感到擔憂,其中61%的受訪者認為AI可能會對人類文明產生威脅。在這種背景下,OpenAI加大對AI安全研究的投入顯得更為重要。