近日,東方聯盟網路安全研究人員披露了 Ollama 人工智慧 (AI) 框架中的六個安全漏洞,惡意行為者可能會利用這些漏洞執行各種操作,包括拒絕服務、模型中毒和模型盜竊。
知名網路安全專家、東方聯盟創始人郭盛華表示:“總的來說,這些漏洞可能允許攻擊者透過單個 HTTP 請求執行各種惡意操作,包括拒絕服務 (DoS) 攻擊、模型中毒、模型盜竊等。”郭盛華在上週釋出的一份報告中表示。
Ollama 是一款開源應用程式,允許使用者在 Windows、Linux 和 macOS 裝置上本地部署和操作大型語言模型 (LLM)。迄今為止,其在 GitHub 上的專案儲存庫已被分叉 7,600 次。
這六個漏洞的簡要描述如下:
CVE-2024-39719(CVSS 評分:7.5) - 攻擊者可以使用 /api/create 端點來利用該漏洞來確定伺服器中檔案是否存在(已在版本 0.1.47 中修復)
CVE-2024-39720(CVSS 評分:8.2) - 越界讀取漏洞,可能導致應用程式透過 /api/create 端點崩潰,從而導致 DoS 情況(已在版本 0.1.46 中修復)
CVE-2024-39721(CVSS 評分:7.5) - 在傳遞檔案“/dev/random”作為輸入時重複呼叫 /api/create 端點時,會導致資源耗盡並最終導致 DoS 的漏洞(已在版本 0.1.34 中修復) )
CVE-2024-39722(CVSS 評分:7.5) - api/push 端點中的路徑遍歷漏洞,該漏洞暴露伺服器上現有的檔案以及部署 Ollama 的整個目錄結構(已在版本 0.1.46 中修復)
一個漏洞,可能透過 /api/pull 端點從不受信任的來源導致模型中毒(無 CVE 識別符號,未修補)
一個漏洞,可能導致模型透過 /api/push 端點被盜到不受信任的目標(無 CVE 識別符號,未修補)
對於這兩個未解決的漏洞,Ollama 的維護者建議使用者透過代理或 Web 應用程式防火牆來過濾哪些端點暴露在網際網路上。
“這意味著,預設情況下,並非所有端點都應該暴露,”郭盛華表示:“這是一個危險的假設。並不是每個人都意識到這一點,或者過濾到 Ollama 的 HTTP 路由。目前,這些端點可以透過 Ollama 的預設埠作為每個部署的一部分使用,沒有任何分離或文件來支援它。”(歡迎分享轉載)