近日,知名科技公司AI target=_blank class=infotextkey>OpenAI陷入“宮斗”,董事會突然宣布將創始人兼首席執行官薩姆·阿爾特曼(Sam Altman)掃地出門。作為發明ChatGPT的人工智能明星公司,OpenAI管理層的變動迅速引發全球科技圈的關注。
身為公司“一把手”,阿爾特曼對OpenAI從一家小機構成長為全球科技領域“獨角獸”有著重要貢獻,為何董事會要趕走這樣一位“功勛人物”?目前來看,通用人工智能發展應當是“安全優先”還是“商業化優先”是沖突爆發的核心原因之一。
OpenAI 成立之初是一家非盈利機構,并設立了宏大愿景——確保人工智能不被壟斷以造福人類。這樣的理想主義目標,吸引了一大批頂級AI科學家拒絕其他科技巨頭的“高官厚祿”,而選擇加入OpenAI。阿爾特曼則在 2019 年將這方“理想之地”改制成了營利公司,并推出ChatGPT引發了全球新一輪人工智能熱潮。然而,OpenAI在獲得巨大商業成功的同時,數據泄露、深度偽造、AI失控等一系列安全隱患愈發凸顯,而阿爾特曼仍在全力加速下一代GPT研發以鞏固商業優勢。最終OpenAI內部的“安全保守派”掀起了風暴,推動董事會“流放”了阿爾特曼等“商業激進派”,試圖讓公司回歸初心。
猶記得八個多月前,包括馬斯克在內的上千名科技人士曾發表聯名信,呼吁暫停超強AI研發,也引發了全球對AI安全問題的重視。如今,OpenAI上演的這出“權力的游戲”,再次將人工智能發展所面臨的道德拷問展現在世人面前。
眼下,由于涉及上千億參數與復雜的算法結構,一些AI大模型所展示的內容“涌現”能力已經令締造者不可預測,其衍生的造假、侵犯隱私等問題更是大幅提高了監管難度。令人擔憂的是,實現平衡AI發展、安全性和商業化之間的關系是一個復雜的問題,需要綜合考慮技術成熟度、道德準則和法律法規等因素,必然耗費大量的時間。但在商業公司對于金錢的欲望、壟斷的野心、落后的恐懼和安全的無共識下,全球人工智能行業已經陷入了“千模大戰”,在數據、算力和算法上瘋狂“內卷”。正如OpenAI首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)所指出的,“世界需要清醒地認識到,各公司競相研發使‘超級智能’從‘永遠可能不會發生’變成了‘很快就會發生’。”
在超越人類的人工智能出現之前,其風險應當被高估還是低估?不同的人有不同答案。但顯然,高估風險,人類只會浪費一些資源,但如果低估,則可能再沒有翻身機會。汽車暢行馬路五十年后,安全帶才被發明出來;DDT殺蟲劑面世近百年后,人類才懷疑其有害環境……回顧科技發展史,對于一種前所未見的新科技,人類可能永遠不會有“準備好”的一天,但只有行動起來才能解決問題,至少減輕傷害。
值得欣慰的是,全球對于強化人工智能監管已經達成了一些共識。一方面,從美國提出負責任地使用人工智能的“五項核心原則”,到日本的“以人為本的人工智能社會原則”,再到中國的“包容審慎的分類分級監管”……世界各國紛紛揮筆立法,以期為這一技術巨獸劃定明確的邊界。另一方面,近期通過2023年APEC會議、第三屆“一帶一路”國際合作高峰論壇等國際對話,各方積極貢獻智慧,支持在聯合國框架下討論人工智能治理,推動形成普遍參與的國際機制和具有廣泛共識的治理框架。這對于保障AI為人類的未來發展提供助力而不是成為威脅,都是有益的航標。
今天的人類,已經跨越機械化、電氣化、自動化的山巒,行進于智能化的快車道。我們有理由相信,讓理性與智慧之光照耀人工智能的星辰大海,人類能夠引導這場科技革命走向更加明亮、公正和有益的未來。