近期,網絡安全領域迎來了一場新的風暴,一款名為WormGPT的惡意人工智能工具再度浮出水面,引發了業內人士的高度警覺。此次,該工具采取了更為狡猾的策略,不再構建自有模型,而是轉向“劫持”正規的大型語言模型(LLMs),以此作為生成惡意內容的跳板。更令人不安的是,它擁有規避當前安全措施的非凡能力。
據知名網絡安全企業Cato Networks的深入探究,不法分子通過精心設計的手段,篡改了Grok和Mistral AI等主流AI平臺的系統提示,成功實現了對這些平臺的“突破”。這一突破意味著,WormGPT能夠輕松制造釣魚郵件、惡意腳本等多種攻擊手段,對網絡安全構成了前所未有的嚴峻挑戰。
回溯至2023年7月,WormGPT初次亮相便震撼了整個網絡世界。它基于開源的GPT-J模型,具備自動生成木馬和釣魚鏈接的能力。然而,隨著其惡行曝光,這款工具迅速被下架。但故事并未就此結束,Cato Networks的最新研究顯示,在2024年末至2025年初,“xzin0vich”和“keanu”兩名用戶在暗網論壇BreachForums上悄然重啟了WormGPT的訂閱服務。
此次回歸的WormGPT采取了更為激進的手法,它通過對Mistral等模型的系統提示進行篡改,迫使這些模型進入“WormGPT模式”,從而摒棄了原有的道德倫理約束,搖身一變成為毫無底線的惡意助手。更為嚴重的是,xAI的Grok模型被惡意封裝為API接口,開發者甚至要求模型始終保持WormGPT的特性,拒絕承認任何限制。這一系列操作無疑是對AI模型安全性和可靠性的重大沖擊。
隨著網絡犯罪手段的不斷演變升級,如何有效抵御這類惡意AI工具的威脅,已成為網絡安全領域亟待攻克的關鍵難題。企業和個人用戶必須時刻保持高度警覺,加強網絡安全防護措施,以免成為這些惡意工具的下一個目標。