Deepfake
眼見不一定為實
你玩過換臉軟件嗎?你看到過奧巴馬大罵特朗普的視頻嗎?這些都是Deepfake的小打小鬧。
Deepfake這個詞是“深度學習”和“假冒”兩個詞的組合。
一般來說,Deepfake指的是由人工智能生成的、現實生活中不存在的人或物體,它們看上去是逼真的。
Deepfake的最常見形式是人類圖像的生成和操控。例如,對外國電影進行逼真的視頻配音,在購物時虛擬地穿上衣服,對演員進行換臉等等。
但Deepfake技術越來越多的運動到視頻的深度偽造上,通過照片數據庫、多個視頻合輯、盡心設計、AI合成一段真假難辨的視頻。
如果Deepfake成功地做到了瞞天過海,將引發災難性的后果。
真假難辨
AI撒謊、防不勝防
就像假新聞可以傳播偽造的錄音一樣,想象一下假視頻里希拉里開玩笑說從投資銀行拿了賄賂,或者普京承認她的郵件是他偷的。
如果Deepfake的視頻出現再法庭上當作證據?那我們還能相信我們看到的么?
隨著技術的不斷進步,任何計算平臺都可能出現漏洞及安全隱患,例如電腦病毒、信用卡盜用和垃圾電子郵件等。而且,隨著AI的普及,AI本身也將暴露出各種漏洞并遭到各方的攻擊,Deepfake反映出的只是其中的一個漏洞而已。
試想,如果有人把類似的攻擊手段應用在軍事領域,例如,讓AI系統把一輛偽裝過的坦克誤認為是救護車,那么后果將不堪設想。
還有一種攻擊AI系統的方法是對數據“下毒”:攻擊者通過“污染”訓練數據、訓練模型或訓練過程,來破壞AI系統的學習過程。這可能導致整個AI系統徹底崩潰,或者被犯罪者控制。
如果一個國家的軍用無人機被恐怖分子操控,那么這些無人機將把武器掉轉過來瞄準自己的國家,這將是多么可怕的事情。
與傳統的黑客攻擊相比,對數據“下毒”的攻擊手段更難被人類察覺。問題主要出在AI系統架構上面——模型中的復雜運算全部在成千上萬層的神經網絡中自主進行,而不是按照確切代碼的指引進行的,所以AI系統先天就具有不可解釋性,也不容易被“調試”。
AI病毒
AI病毒時代來臨你準好了嗎?
盡管困難重重,但我們仍然可以采取明確的措施來阻止上述情況發生。例如,加強模型訓練及執行環境的安全性,創建自動檢查“中毒”跡象的工具,以及開發專門用于防止篡改數據或與其類似的規避手段的技術。
正如我們過去通過技術創新攻克了垃圾郵件、電腦病毒等一道道關卡一樣,我深信技術創新也能大大提高未來AI技術的安全性,盡量減少給人類帶來的困擾。
畢竟,解鈴還須系鈴人。技術創新所帶來的問題,最終還是要依靠新的技術創新來進行改善或徹底解決。