IT之家 10 月 27 日消息,AI target=_blank class=infotextkey>OpenAI 當(dāng)?shù)貢r間周四宣布,公司正在組建一個新團隊,以降低與 AI 相關(guān)的“災(zāi)難性風(fēng)險”,將對 AI 可能引發(fā)的重大問題進行跟蹤、評估、預(yù)測和保護。
OpenAI 稱,“我們深信前沿 AI 模型的能力將超過目前最先進的現(xiàn)有模型,并可能造福全人類,但它們也帶來了越來越嚴(yán)重的風(fēng)險。”該團隊將努力減輕核威脅、生物、化學(xué)和放射性威脅等一系列 AI 可能引發(fā)的重大風(fēng)險,以及 AI“自我復(fù)制”等行為帶來的潛在風(fēng)險。
圖源 Pexels
OpenAI 表示,公司需要確保擁有高能力 AI 系統(tǒng)安全所需的理解、基礎(chǔ)設(shè)施。該團隊將由原麻省理工學(xué)院可部署機器學(xué)習(xí)中心主任 Aleksander Madry 領(lǐng)導(dǎo),并將制定、維護一項“風(fēng)險知情開發(fā)政策”,用以概述公司在評估和監(jiān)控 AI 大模型所做的工作。
IT之家此前報道,非營利組織 AI 安全中心于上月底發(fā)表簡短聲明:“將減輕人工智能帶來的滅絕風(fēng)險,放在和流行病、核戰(zhàn)等社會問題同一高度,作為全球優(yōu)先事項推進”,這項 22 字的倡議已得到了包括 OpenAI 首席執(zhí)行官山姆?阿爾特曼在內(nèi)的多位 AI 行業(yè)大佬的支持。