【ITBEAR科技資訊】5月21日消息,近日,OpenAI再次成為科技界的焦點。繼公司共同創始人Ilya Sutskever離職后,另一名高管Jan Leike也在社交平臺X上宣布,他已于上周離開了這家人工智能領域的領軍企業。
據ITBEAR科技資訊了解,Jan Leike曾是OpenAI旗下重要的Superalignment(超級對齊)團隊的共同主管。他此次離職的原因,據其透露,是近年來OpenAI逐漸忽視了內部文化和安全準則,過于追求快速推出引人注目的產品。這一變化讓他感到失望,因此選擇離開。
Superalignment團隊是OpenAI在2023年7月設立的,其核心任務是確保具備超級智能的AI系統能夠遵循人類的意圖。當時,OpenAI曾承諾在未來四年內投入20%的計算能力來保障AI模型的安全性。然而,據彭博社報道,如今這個重要團隊卻已經被解散。
Jan Leike表示,他最初加入OpenAI是因為認為這里是世界上最適合進行AI安全研究的地方。但現在,他認為公司領導層已經嚴重忽視了模型的安全性,而將盈利和獲取計算資源作為了核心優先事項。
針對Jan Leike的離職和言論,OpenAI的Greg Brockman和Sam Altman聯名回應稱,他們已經提高了對AGI風險的認知,并會不斷提升安全工作以應對每款新模型的利害關系。他們感謝Jan Leike為OpenAI所做的一切,并表示知道他將繼續在外部為公司的使命做出貢獻。
在回應中,他們還詳細闡述了OpenAI對整體戰略的思考以及對未來AI發展的看法。他們強調,隨著模型能力的不斷提升,公司需要更加緊密地與用戶合作,確保AI系統的安全性和可靠性。同時,他們也表示將繼續進行針對不同時間尺度的安全研究,并與政府和多方利益相關者保持緊密合作。
OpenAI的這一系列變動無疑給人工智能領域帶來了新的思考和討論。在追求技術進步的同時,如何確保AI的安全性和遵循人類的意圖成為了行業面臨的重要挑戰。