近期,經(jīng)濟(jì)學(xué)人雜志發(fā)表了一篇文章,對(duì)一款名為Manus的智能體系統(tǒng)提出了質(zhì)疑。據(jù)報(bào)道,盡管Manus被開發(fā)者宣傳為能將“想法轉(zhuǎn)化為行動(dòng)”的通用智能體,但在實(shí)際使用中,用戶卻遭遇了諸多困擾。
文中指出,長(zhǎng)時(shí)間體驗(yàn)Manus后,用戶發(fā)現(xiàn)其回答常常令人困惑,操作延遲明顯,甚至?xí)霈F(xiàn)無(wú)休止的循環(huán),極大地影響了使用體驗(yàn)。開發(fā)者似乎過(guò)于急于求成,采取了“先完成再完美”的策略,將產(chǎn)品匆忙推向市場(chǎng)。
Manus智能體系統(tǒng)建立在現(xiàn)有模型之上,能夠與互聯(lián)網(wǎng)互動(dòng)并執(zhí)行一系列任務(wù),且無(wú)需人類用戶許可。這一特點(diǎn)使其在市場(chǎng)上獨(dú)樹一幟,因?yàn)榇饲叭駻I實(shí)驗(yàn)室大多只是在私下對(duì)這種智能體方法進(jìn)行實(shí)驗(yàn)。Manus之所以引起廣泛關(guān)注,并非因?yàn)槠浼夹g(shù)本身的突破,而是因?yàn)樗婚_發(fā)者完全投放到了實(shí)際應(yīng)用中,標(biāo)志著一個(gè)AI研發(fā)新時(shí)代的到來(lái),且這一變革發(fā)生在現(xiàn)實(shí)世界中。
相比之下,美國(guó)的大型AI實(shí)驗(yàn)室則顯得更為謹(jǐn)慎。出于對(duì)創(chuàng)新成果安全性的考慮,他們往往將技術(shù)深藏不露,反復(fù)調(diào)試直至達(dá)到可用的1.0版本。例如,OpenAI在發(fā)布GPT-2時(shí)就等待了長(zhǎng)達(dá)九個(gè)月的時(shí)間,而谷歌的LaMDA聊天機(jī)器人雖然早在2020年就能內(nèi)部運(yùn)行,但直到兩年多以后才以Bard之名面世。
大公司對(duì)AI智能體的謹(jǐn)慎態(tài)度有其合理依據(jù)。賦予智能體自主解決問(wèn)題的自由,可能會(huì)放大其潛在危害。因此,盡管Anthropic和谷歌等公司展示了Computer Use等功能,但并未廣泛發(fā)布。這些系統(tǒng)在測(cè)試和開發(fā)者預(yù)覽版中既受到技術(shù)局限,也受到政策約束,會(huì)在必要時(shí)交還用戶控制權(quán)。
然而,Manus的出現(xiàn)打破了這種審慎的平衡。隨著初創(chuàng)公司與人工智能巨頭之間的技術(shù)差距不斷縮小,行業(yè)巨頭已經(jīng)失去了從容打磨產(chǎn)品的空間。這也意味著他們?cè)械陌踩呗钥赡懿辉龠m用。
盡管目前尚無(wú)證據(jù)表明Manus造成了實(shí)際危害,但安全保障已不能再局限于大公司發(fā)布前的大規(guī)模測(cè)試。監(jiān)管機(jī)構(gòu)和企業(yè)需要實(shí)時(shí)監(jiān)控已投入使用的系統(tǒng),對(duì)發(fā)現(xiàn)的危害迅速響應(yīng),并在必要時(shí)完全停用行為失當(dāng)?shù)南到y(tǒng)。Manus的出現(xiàn)無(wú)疑預(yù)示著,人工智能研發(fā)的未來(lái)將更多地在開放環(huán)境中展開。