你擔心被人工智能取代嗎?
赫拉利曾說,自計算機時代開始以來,對人工智能的恐懼就一直困擾著人類。而這個問題似乎在ChatGPT出現后,離每個人又近了一些。以chatGPT為代表的大型生成式預訓練語言模型,被認為是打通了人類與機器之間的溝通障礙。不同國家之間的語言壁壘、不同職業之間的專業詞匯壁壘,似乎只要通過輸入自然語言就可以解決。語言“巴別塔”正在被科技打破。
未來呢,當人機共存時,世界會是怎樣?人類會被大模型取代嗎?想要共存,應該如何做?9月7日,外灘大會上傳出了一些思考的聲音。
出現大模型是一種必然
技術加速發展、世界的變化越來越快。chatGPT橫空出世,不到兩個月就突破1億月活用戶,而此前最火爆的應用軟件TikTok實現同一個目標用了9個月。
“我們做技術的,每天早上睜眼一睜眼,最擔心的一件事情就是,是不是又出現新的革命性技術?飯碗還牢不牢固?”復旦大學計算機科學技術學院教授肖仰華笑著說,技術爆炸的時代,從未有一個時代變化發生的如此之快。
加速的變化讓世界越來越復雜,繼而導致世界發展的不確定性日益增加。放眼全球,老齡化趨勢加劇、自然災害頻發、政治環境嚴峻、經濟預期下滑,各類因素交織,社會發展的失控風險也在增加。
但與此同時,人類的認知能力是有限的。“受限于緩慢的生物進化速度,現在的人類并不比古人聰明多少。”肖仰華說,這也就帶來了當下人類面臨的一大挑戰——有限的認知水平難以應對當下日益復雜、變化增速、失控風險增加的世界。
反觀大模型,十年后可能早已跳出人類現在對它的想象框架。隨著訓練集的數據和算力持續增長,從原理上來講,機器的認知能力可以和世界不斷增長的復雜性保持同步。
因此,出現這樣的大模型是一種必然。“要想應對當下人類社會的眾多問題,必然要發展出具備高度認知能力的大模型。”肖仰華說。
完美的未來?
根據皮尤中心近期的一項調查報告顯示,42%的專家對2035年會看到的“人類+技術”演變的變化既興奮又擔憂。
大模型確實可以解決生活和工作中的一些問題。復旦大學哲學學院教授王國豫在圓桌會談中分享,自己也會在寫完英文論文后用chatGPT潤色,“確實比自己寫得好”。
另一邊,在討論未來之前,當下由大模型等人工智能帶來的諸多隱憂已經在顯現。人機邊界日益模糊,傳統的圖靈能測試已經難以勝任大模型時代的人機區分任務,仿真機器人、仿真主播層出不窮。當真真假假難以分辨,虛假信息、欺詐泛濫等社會治理問題一一顯現。“人工智能的出現,是在用科技之矛擊毀科技之盾,讓人知道眼見不一定為實。這會重塑人的認知觀念。”小i集團董事局主席兼CEO袁輝說。
同時,GPT4等大規模生成式語言模型在“形式上”具備了人類思維的核心能力,包括語言理解、嘗試理解、邏輯推理、運籌規劃等。“它有很多能力都是在模擬人類的認知能力,同時它也具備了成為一個自治智能體大腦的能力。”肖仰華說。
此時再看未來,具備認知能力的自治通用人工智能,還只是傳統意義上的工具嗎?
肖仰華最擔心的是用進廢退。當大模型越用越好用,人就會越來越依賴它。當大量寫作任務交給了機器,人就被剝奪了鍛煉思維的機會。“而這帶來的智力的倒退,則有可能帶來人類主體性的倒退。”
重新認識自己
事實上,對于人工智能是否會代替人類,目前沒有人能給出篤定、清晰的回答。但是在外灘大會,我們看到了這個問題的另一個共識,即影響這個回答的關鍵因素是認知,也就是人類能否重新認識自己和世界。
一個人很難做到通識,但大模型可以做到。論壇上很多嘉賓都提到一個共性影響,大模型是海量的知識容器,這會讓知識變得廉價。“我們要讓生成式人工智能幫人類擠出知識的水分。”中國社會科學院哲學所科技哲學研究室主任段偉文表示,大模型可以看作人類智能的鏡子。
生成式人工智能表明,我們在很大程度上一直在模仿知識和意義。“通過這面模仿智能的鏡子,可以逼迫我們不再假裝知道不知道的事情,不再表達你沒有感覺到的東西。可以讓人工智能為你完成無聊的任務,但不應該讓人工智能替你做決定。”
在段偉文看來,大多數語言和思考不過是模仿。像簡報、會議、備忘錄、提案、時間表和發票、代碼和代碼審查等,在人工智能開始模擬它們之前,屏幕上的工作都是對它們本身的模擬,“現在是時候把模擬的模擬留給機器了。”
回到開頭,想要保持人的主體性,應該如何做?重新構建人機關系是論壇上傳出的答案。未來,人類和人工智能一定不再只是使用者和工具,而是顧問、咨詢、輔助和合作的關系。
在肖仰華看來,重構人機關系,首先要重新構建人的價值和機器的價值。
在創新創造的過程中,大模型擅長常規性、重復性信息處理型工作,能夠完美勝任“生成”部分。人,則應該做提示,以及評估、解釋、判斷、選擇的工作。“評估比生成重要,鑒賞比創作重要;謀劃比執行重要,構思比執筆重要;提問比回答重要,質疑比遵從重要。”肖仰華說。
仔細思考這句話,我們也不難發現更重要、難以被替代的永遠是掌握主動權的角色。因此,在他看來,人機共生時代,人最重要的能力是使用和駕馭AI的能力。當各界都在思考如何把人工智能做大做強時,另一個問題也同樣重要,如何把大模型的能力控制在某種邊界范圍內。
當前大模型還不具備自我意識,但未來不一定沒有。對人類來說,這是安全底線,畢竟,“沒有人的文明是毫無意義的。”肖仰華說。