你擔(dān)心被人工智能取代嗎?
赫拉利曾說,自計算機(jī)時代開始以來,對人工智能的恐懼就一直困擾著人類。而這個問題似乎在ChatGPT出現(xiàn)后,離每個人又近了一些。以chatGPT為代表的大型生成式預(yù)訓(xùn)練語言模型,被認(rèn)為是打通了人類與機(jī)器之間的溝通障礙。不同國家之間的語言壁壘、不同職業(yè)之間的專業(yè)詞匯壁壘,似乎只要通過輸入自然語言就可以解決。語言“巴別塔”正在被科技打破。
未來呢,當(dāng)人機(jī)共存時,世界會是怎樣?人類會被大模型取代嗎?想要共存,應(yīng)該如何做?9月7日,外灘大會上傳出了一些思考的聲音。
出現(xiàn)大模型是一種必然
技術(shù)加速發(fā)展、世界的變化越來越快。chatGPT橫空出世,不到兩個月就突破1億月活用戶,而此前最火爆的應(yīng)用軟件TikTok實(shí)現(xiàn)同一個目標(biāo)用了9個月。
“我們做技術(shù)的,每天早上睜眼一睜眼,最擔(dān)心的一件事情就是,是不是又出現(xiàn)新的革命性技術(shù)?飯碗還牢不牢固?”復(fù)旦大學(xué)計算機(jī)科學(xué)技術(shù)學(xué)院教授肖仰華笑著說,技術(shù)爆炸的時代,從未有一個時代變化發(fā)生的如此之快。
加速的變化讓世界越來越復(fù)雜,繼而導(dǎo)致世界發(fā)展的不確定性日益增加。放眼全球,老齡化趨勢加劇、自然災(zāi)害頻發(fā)、政治環(huán)境嚴(yán)峻、經(jīng)濟(jì)預(yù)期下滑,各類因素交織,社會發(fā)展的失控風(fēng)險也在增加。
但與此同時,人類的認(rèn)知能力是有限的。“受限于緩慢的生物進(jìn)化速度,現(xiàn)在的人類并不比古人聰明多少。”肖仰華說,這也就帶來了當(dāng)下人類面臨的一大挑戰(zhàn)——有限的認(rèn)知水平難以應(yīng)對當(dāng)下日益復(fù)雜、變化增速、失控風(fēng)險增加的世界。
反觀大模型,十年后可能早已跳出人類現(xiàn)在對它的想象框架。隨著訓(xùn)練集的數(shù)據(jù)和算力持續(xù)增長,從原理上來講,機(jī)器的認(rèn)知能力可以和世界不斷增長的復(fù)雜性保持同步。
因此,出現(xiàn)這樣的大模型是一種必然。“要想應(yīng)對當(dāng)下人類社會的眾多問題,必然要發(fā)展出具備高度認(rèn)知能力的大模型。”肖仰華說。
完美的未來?
根據(jù)皮尤中心近期的一項(xiàng)調(diào)查報告顯示,42%的專家對2035年會看到的“人類+技術(shù)”演變的變化既興奮又擔(dān)憂。
大模型確實(shí)可以解決生活和工作中的一些問題。復(fù)旦大學(xué)哲學(xué)學(xué)院教授王國豫在圓桌會談中分享,自己也會在寫完英文論文后用chatGPT潤色,“確實(shí)比自己寫得好”。
另一邊,在討論未來之前,當(dāng)下由大模型等人工智能帶來的諸多隱憂已經(jīng)在顯現(xiàn)。人機(jī)邊界日益模糊,傳統(tǒng)的圖靈能測試已經(jīng)難以勝任大模型時代的人機(jī)區(qū)分任務(wù),仿真機(jī)器人、仿真主播層出不窮。當(dāng)真真假假難以分辨,虛假信息、欺詐泛濫等社會治理問題一一顯現(xiàn)。“人工智能的出現(xiàn),是在用科技之矛擊毀科技之盾,讓人知道眼見不一定為實(shí)。這會重塑人的認(rèn)知觀念。”小i集團(tuán)董事局主席兼CEO袁輝說。
同時,GPT4等大規(guī)模生成式語言模型在“形式上”具備了人類思維的核心能力,包括語言理解、嘗試?yán)斫狻⑦壿嬐评怼⑦\(yùn)籌規(guī)劃等。“它有很多能力都是在模擬人類的認(rèn)知能力,同時它也具備了成為一個自治智能體大腦的能力。”肖仰華說。
此時再看未來,具備認(rèn)知能力的自治通用人工智能,還只是傳統(tǒng)意義上的工具嗎?
肖仰華最擔(dān)心的是用進(jìn)廢退。當(dāng)大模型越用越好用,人就會越來越依賴它。當(dāng)大量寫作任務(wù)交給了機(jī)器,人就被剝奪了鍛煉思維的機(jī)會。“而這帶來的智力的倒退,則有可能帶來人類主體性的倒退。”
重新認(rèn)識自己
事實(shí)上,對于人工智能是否會代替人類,目前沒有人能給出篤定、清晰的回答。但是在外灘大會,我們看到了這個問題的另一個共識,即影響這個回答的關(guān)鍵因素是認(rèn)知,也就是人類能否重新認(rèn)識自己和世界。
一個人很難做到通識,但大模型可以做到。論壇上很多嘉賓都提到一個共性影響,大模型是海量的知識容器,這會讓知識變得廉價。“我們要讓生成式人工智能幫人類擠出知識的水分。”中國社會科學(xué)院哲學(xué)所科技哲學(xué)研究室主任段偉文表示,大模型可以看作人類智能的鏡子。
生成式人工智能表明,我們在很大程度上一直在模仿知識和意義。“通過這面模仿智能的鏡子,可以逼迫我們不再假裝知道不知道的事情,不再表達(dá)你沒有感覺到的東西。可以讓人工智能為你完成無聊的任務(wù),但不應(yīng)該讓人工智能替你做決定。”
在段偉文看來,大多數(shù)語言和思考不過是模仿。像簡報、會議、備忘錄、提案、時間表和發(fā)票、代碼和代碼審查等,在人工智能開始模擬它們之前,屏幕上的工作都是對它們本身的模擬,“現(xiàn)在是時候把模擬的模擬留給機(jī)器了。”
回到開頭,想要保持人的主體性,應(yīng)該如何做?重新構(gòu)建人機(jī)關(guān)系是論壇上傳出的答案。未來,人類和人工智能一定不再只是使用者和工具,而是顧問、咨詢、輔助和合作的關(guān)系。
在肖仰華看來,重構(gòu)人機(jī)關(guān)系,首先要重新構(gòu)建人的價值和機(jī)器的價值。
在創(chuàng)新創(chuàng)造的過程中,大模型擅長常規(guī)性、重復(fù)性信息處理型工作,能夠完美勝任“生成”部分。人,則應(yīng)該做提示,以及評估、解釋、判斷、選擇的工作。“評估比生成重要,鑒賞比創(chuàng)作重要;謀劃比執(zhí)行重要,構(gòu)思比執(zhí)筆重要;提問比回答重要,質(zhì)疑比遵從重要。”肖仰華說。
仔細(xì)思考這句話,我們也不難發(fā)現(xiàn)更重要、難以被替代的永遠(yuǎn)是掌握主動權(quán)的角色。因此,在他看來,人機(jī)共生時代,人最重要的能力是使用和駕馭AI的能力。當(dāng)各界都在思考如何把人工智能做大做強(qiáng)時,另一個問題也同樣重要,如何把大模型的能力控制在某種邊界范圍內(nèi)。
當(dāng)前大模型還不具備自我意識,但未來不一定沒有。對人類來說,這是安全底線,畢竟,“沒有人的文明是毫無意義的。”肖仰華說。