近期,國產大型語言模型DeepSeek的流行促使眾多開發者利用Ollama工具將其部署至本地服務器。然而,一個令人擔憂的安全問題浮出水面:據網絡空間測繪平臺數據顯示,截至2025年3月,已有14,359臺Ollama服務器因配置不當,直接暴露于公網之上,其中中國境內的服務器占比最高。這意味著,這些服務器如同不設防的門戶,任由攻擊者自由進出,竊取模型、濫用算力,甚至被用作挖礦的“肉雞”。
面對這一嚴峻形勢,如何迅速填補安全漏洞,防止辛苦構建的AI模型為他人所用,成為了擺在開發者面前的緊迫任務。為此,騰云悅智安全實驗室提供了五項關鍵防護措施,助力開發者實現從“不設防”到“銅墻鐵壁”的轉變。
首要問題在于Ollama的默認配置存在重大安全隱患。當服務端口(11434)暴露于公網且缺乏身份認證機制時,攻擊者可輕松遠程調用高危API接口,執行未授權操作。騰云悅智安全實驗室已成功復現了這一漏洞,證實了其嚴重性。
這些暴露的服務器面臨多重風險。攻擊者不僅可以通過/api/push接口將私有模型導出至遠程服務器,輕松竊取核心AI資產;還可以惡意調用模型推理功能,耗盡GPU資源,導致服務癱瘓或云服務器費用飆升。更糟糕的是,利用路徑遍歷漏洞(如CVE-2024-37032),攻擊者還能覆蓋系統文件并執行任意代碼,進一步入侵內網。
為了緊急應對這一威脅,開發者需立即采取行動。首先,應關閉“敞開的大門”,即在啟動Ollama時設置環境變量,僅允許本機訪問。若必須公網開放,則需通過防火墻限制11434端口,僅允許可信IP訪問。其次,務必升級Ollama至最新版本(0.1.34及以上),以修復遠程代碼執行、路徑遍歷等高危漏洞。
在核心加固方面,開發者應為API添加雙重保護。第一重保護是反向代理+密碼認證。通過Nginx為Ollama添加Basic Auth認證,并設置IP白名單,確保訪問需輸入賬號密碼且來自內網IP段。第二重保護是HTTPS加密防監聽。申請免費SSL證書,配置Nginx強制HTTPS訪問,確保數據在傳輸過程中不被竊取。
為了長效防護,開發者還需采取一系列運維措施。包括修改默認服務端口以降低被掃描風險;定期檢查Nginx訪問日志,封禁異常IP;僅從DeepSeek官網或可信渠道拉取模型;以及定期使用漏掃軟件或人工進行漏洞掃描。
通過上述措施的實施,開發者僅需半小時即可將Ollama服務器從“高危裸奔”狀態升級為“企業級防護”。這不僅是對自身數字資產的保護,更是對整個AI生態安全的貢獻。
作為領先的云計算與人工智能綜合服務提供商,騰云悅智科技(深圳)有限責任公司專注于為企業提供專業的云計算及大數據、人工智能等服務。其旗下的悅智安全實驗室更是提供專業的安全風險評估與加固服務,深度檢測隱患漏洞,構建全維度防護體系,為企業的數字資產提供堅不可摧的安全保障。