隨著人工智能大模型的廣泛應用,其安全性問題也日益凸顯,成為黑客攻擊的新目標。近期,DeepSeek便遭遇了大規模的網絡攻擊,攻擊者通過多種手段,諸如僵尸網絡和UDP洪水攻擊,向服務器發送海量數據包,導致網絡帶寬和系統資源嚴重過載。
這類資源消耗型攻擊,其核心理念在于無需直接竊取數據或破壞模型結構,而是通過大量占用目標系統的計算資源、訓練數據等,達到系統癱瘓、性能下降乃至模型失效的目的。此類攻擊隱蔽性強、破壞力巨大,對AI大模型構成了重大威脅,嚴重阻礙了AI技術的健康發展。
據分析,當前針對AI大模型的資源消耗型攻擊主要包括四類:API接口調用攻擊、惡意注冊攻擊、大模型供應鏈投毒攻擊以及大模型循環占用算力資源攻擊。這些攻擊手段各異,但均對AI大模型的安全構成了嚴峻挑戰。
在API接口調用攻擊中,攻擊者通過高頻請求、復雜查詢以及濫用異步調用等手段,大量消耗服務器的算力資源。例如,攻擊者可以自動化地向AI繪畫平臺的圖片生成接口發送數千次請求每秒,導致平臺資源被大量占用,正常用戶請求無法得到及時處理。
惡意注冊攻擊則是通過虛假賬號占用免費額度或試用資源。攻擊者利用自動化注冊工具批量創建賬號,并使用這些賬號大量生成圖像或發起推理請求,導致平臺資源被過度消耗,增加了運營成本,降低了服務質量。
大模型供應鏈投毒攻擊則更為隱蔽且長期。攻擊者通過在訓練數據中插入誤導性樣本、篡改模型依賴的第三方庫或植入后門等手段,污染模型的學習過程,使其在特定情況下做出錯誤預測或決策。這種攻擊方式不僅影響模型的性能,還可能引發數據泄露等安全問題。
大模型循環占用算力資源攻擊則針對容器化架構的彈性擴縮容弱點。攻擊者通過構造惡意輸入,如無限遞歸提示詞或超大上下文請求,使AI不斷重復處理相同任務或消耗大量顯存資源。攻擊者還可以利用Kubernetes的自動擴容特性,通過發送大量請求觸發資源過載,導致AI服務無法正常運行。
白山云安全實驗室作為業內領先的網絡安全服務商,憑借豐富的創新技術探索和實戰經驗,為AI大模型和AIGC企業提供專業的安全解決方案。其云WAF產品能夠精準識別與過濾攻擊流量,實現應用層深度檢測和實時阻斷與防護。白山云還提供模型安全漏洞掃描、數據安全監測、威脅情報共享以及應急響應服務等配套安全服務,為AI業務的持續穩健運營保駕護航。