概況:大模型(LLM)的發展帶來的技術紅利,以及企業業務逐漸向AI轉型,LLM 常見的安全漏洞、網路攻擊手段變化已經成為企業要迫切關注的問題,本文來探討一下,如何透過 API 管理策略有效防範LLM的風險。
近年來,隨著大型語言模型技術的迅猛發展,各行各業對AI 應用或者業務與AI的結合的熱情不斷高漲。然而,無論是哪一種新興的技術的出現,都不可避免地給使用者會帶來或者暴露出新的安全漏洞問題。
那麼下面,我們將結合 OWASP(Open Web Application Security)專案中列出的七大 LLM 漏洞,逐一分析和探討一下有哪些 API 管理策略,可以用來應對這些風險的具體措施。例如:提示注入或不安全的輸出處理,解釋網路攻擊者如何利用這些弱點等等,以及根據實際情況,實施哪些 API 管理策略可以預防這些安全威脅。
第一種:提示注入攻擊
提示注入是指攻擊者透過精心構造的惡意提示,誘騙生成式 AI 模型輸出意料之外的內容。如果不對傳遞給 LLM 的提示進行限制,攻擊者可能會構造惡意請求,導致模型產生不合預期的結果。例如:原本應該幫助使用者的聊天機器人,可能突然轉而對使用者進行辱罵。
為防止這類攻擊,開發人員應首先實施嚴格的身份驗證和訪問控制,確保只有授權使用者才能與 LLM 互動。
此外,在將請求傳送給模型之前,必須進行提示內容的檢查。可以透過前後處理器來限制 LLM 的響應行為,或使用模板化的請求將實際輸入限制在安全的引數範圍內。也可以選擇自有訓練的 LLM 或使用第三方服務來審查提示請求及模型的響應內容,以確保安全。
第二種:不安全的輸出處理
如果盲目信任 LLM 返回的響應,可能會無意中暴露後端系統,導致跨站指令碼攻擊、跨站請求偽造、伺服器端請求偽造、許可權提升或遠端程式碼執行等安全問題。
應對這一風險的首要措施是進行提示範圍限制,確保 LLM 的提示內容被控制在一個安全範圍內。另外,響應內容在返回使用者前必須經過嚴格審查。可以透過簡單的正規表示式檢查,或使用更為複雜的 LLM 自檢機制,過濾潛在的有害內容。
第三種:模型拒絕服務攻擊
當大量請求湧向 LLM 時,可能會導致服務效能下降或資源成本激增,這對企業來說是最不願面對的結果。模型拒絕服務攻擊正是基於這一原理:攻擊者透過觸發大量資源密集型操作,如生成過多工或重複提交冗長的輸入,造成模型資源消耗過高。
為防止這種攻擊,企業應實施身份驗證和授權機制,防止未經授權的使用者訪問 LLM。同時,還應對每個使用者的令牌使用量進行限制,避免使用者迅速耗盡組織的資源,導致高額的成本和計算資源的浪費,進而引發系統延遲。
第四種:敏感資訊洩露
合規性團隊對 LLM 的敏感資訊洩露問題尤為關注,因為一旦發生,可能導致未經授權的資料訪問、隱私洩露和嚴重的安全事故。
開發者可以透過使用專門訓練的 LLM 服務來識別並遮蔽或模糊處理敏感資料,避免其被不當輸出。這種方法不僅適用於 LLM 場景,也可以應用於其他非 LLM 的資料處理場景。此外,開發者還可以對 LLM 進行約束,指示其不返回特定型別的資料,從而有效降低敏感資訊洩露的風險。
第五種:不安全的外掛設計
如果對訪問控制不嚴或輸入處理不安全,系統可能會面臨不安全的外掛設計問題。這種風險通常發生在使用者與 LLM 互動時,由模型自動呼叫的外掛未經適當審查,允許攻擊者構造惡意請求,觸發各種不良行為。
為降低這種風險,首先要透過身份驗證和授權機制,限制訪問 LLM 的使用者和操作,防止未經授權的外掛呼叫。同時,還需要對提示請求進行嚴格的清理和控制,確保系統只允許安全的操作執行。
第六種:過度自主性
當 LLM 系統被授予過多的功能、許可權或自主權時,可能會執行一些超出預期的操作,導致不可控的後果。
要應對這一威脅,開發者需要對系統進行持續監控,確保對所有與 LLM 互動的操作都有清晰的可見性。使用流量監控工具能夠幫助企業實時瞭解哪些操作正在與 LLM 互動,並透過嚴格的授權機制限制敏感操作,確保系統安全執行。
第七種:過度依賴
過度依賴 LLM 可能導致資訊誤導、溝通錯誤,甚至因生成的內容引發法律或安全問題。尤其是當系統授予使用者或其他子系統過多的自主權時,這類風險更加突出。
為降低這種風險,開發者應透過身份驗證和授權機制對 LLM 的訪問進行嚴格控制,特別是在敏感操作方面,需設定更高的訪問許可權。類似於過度自主性問題,企業也應對流量進行監控,確保互動操作的安全性。同時,需使用提示控制機制,限制使用者與 LLM 的互動方式,以減少潛在風險。
LLM 的訪問方式主要透過 API 呼叫實現,因而應對 LLM 可以實施與傳統 API 流量相同的安全管理策略。研發部門可以透過實施縱深防禦策略以及建立全面的流量監控機制,這樣可以清晰掌握系統中流量的流動情況,並且確保 LLM 的安全使用。
基於AI 閘道器的大模型API管理策略實踐
更進一步來說,選擇具備專業整合能力的 AI 閘道器,能實現精細化管理 AI API 流量中的各種細節,有效增強系統的安全性。現在比如熱門的Kong、APIPark等等開源AI閘道器專案也在進行探索,幫助企業更好地管理好LLM。
如何部署AI閘道器
步驟 1:在5分鐘內部署開源 AI閘道器。
APIPark 開源AI網是基於Go語言開發,擁有強大的效能,開發和維護成本較低低。
只需一行命令即可完成AI閘道器的部署。
curl -sSO https://download.apipark.com/install/quick-start.sh; bash quick-start.sh
按照提示進行部署即可,部署完成後,將會展示部署資訊,如下:
步驟 2: 呼叫大模型 API
在具體的API管理實踐中,選擇kong、或者APIPark這類具備高整合能力的AI閘道器,藉助AI的多層防護機制,企業可以將模型的呼叫控制與身份驗證機制結合,確保了每次AI模型API呼叫都符合企業內部監管要求。
透過AI 閘道器流量限制、使用者許可權管理等功能,不僅能有效防範提示注入等外部攻擊,還能有效保證研發部門在處理高頻模型請求時避免資源超負荷,保持模型效能的穩定。
整體而言,企業在面對不斷演進的對大模型外部的安全挑戰時,選擇專業化的AI閘道器作為安全防護策略,能有效增強API安全性和提升業務韌性。