人工智慧:大型語言模型的安全和隱私挑戰

zktq2021發表於2023-11-24

生成人工智慧工具,如ChatGPT或Bard,與大型語言模型(LLM)一起工作,並在企業環境中越來越多地使用。對於組織來說,要利用大型語言模型(LLM) 的潛力,還要能管理隱藏其中的安全風險。

ChatGPT和其他生成人工智慧工具與LLM一起工作。透過使用人工神經網路來處理大量的文字資料。在學習了單詞之間的模式以及在上下文中的使用方式後,模型就能夠用自然語言與使用者進行互動。

LLM支援的生成人工智慧模型,如ChatGPT等聊天機器人中使用的模型,就像超級搜尋引擎一樣,使用經過訓練的資料來回答問題,並模仿人類語言模式完成任務。無論是公開可用的模型,還是組織內部使用的模型,基於LLM的生成人工智慧都可能使公司面臨某些安全和隱私風險。

LLM 的 5 大風險

1. 共享敏感資料

基於LLM的聊天機器人不擅長保守秘密。這意味著輸入的任何資料都可以被模型吸收並提供給其他人,或者至少用於訓練未來的LLM模型。

2. 版權問題

LLM是由大量的資料形成的。但這些資訊通常是在未經內容所有者明確許可的情況下從網際網路上提取的。如果使用可能會導致版權問題。當前的問題是,有些特定訓練資料的原始來源很難找到,這也增加了解決版權問題的困難。

3. 不安全的程式碼

開發者越來越多地轉向ChatGPT和類似的工具來加快產品研發。從理論上講,它可以幫助快速有效地生成程式碼片段甚至完整的軟體程式。然而,安全專家警告稱,這也會產生漏洞。如果開發人員缺乏足夠的知識來尋找錯誤,將帶來潛在的安全威脅。如果有缺陷的程式碼進入到生產中,可能會對聲譽造成嚴重影響,並且需要時間和金錢來修復問題。

4. 破解 LLM 本身

未經授權的LLM訪問和操作可能為執行惡意活動提供許多選項,例如透過命令注入攻擊讓模型洩露敏感資訊,或執行其他本應被阻止的操作。其他攻擊可能涉及利用LLM伺服器上的伺服器端請求偽造(SSRF)漏洞,這將允許攻擊者提取內部資源。威脅行為者甚至可以找到一種與敏感系統和資源互動的方法,只需透過自然語言提示傳送惡意命令。為了提高人們對LLM應用程式漏洞的認識,OWASP基金會最近釋出了一份清單,列出了這些應用程式中常見的10個關鍵安全漏洞。

5. 人工智慧提供商的資料洩露

開發人工智慧模型的公司總有可能遭遇安全漏洞,例如,網路攻擊者可能會竊取包含敏感資訊的訓練資料。

該如何應對?

資料加密和匿名化:在與LLM共享資料之前加密資料,以保護資料不被窺探,考慮匿名技術,以保護可能在資料集中被識別的個人隱私。資料清理可以達到同樣的目的,在將訓練資料引入模型之前,從訓練資料中刪除敏感細節。

包含增強的訪問控制:強密碼、多重身份驗證 (MFA) 和最低特權策略將有助於確保只有經過授權的個人才能訪問生成式 AI 模型和後端系統。

定期進行安全審計:有助於發現 IT 系統中的漏洞,這些漏洞可能會影響 LLM 及其所基於的生成式 AI 模型。

實踐事件響應計劃:一個可靠的、經過精心演練的計劃將有助於組織快速響應,以遏制、補救任何違規行為並從中恢復。

把控LLM供應商:與任何供應商一樣,確保提供LLM的公司遵循資料安全和隱私方面的行業實踐很重要。確保清楚地告知使用者資料在哪裡被處理和儲存,以及它們是否被用於訓練模型。它們能儲存多久?它們是否與第三方共享?使用者可以選擇他們的資料不用於培訓嗎?

確保開發人員遵循嚴格的安全準則:如果開發人員使用 LLM 生成程式碼,需要確保他們遵守策略,例如安全測試和同行評審,以降低錯誤潛入生產環境的風險。


參讀來源:

https://www.welivesecurity.com/es/seguridad-corporativa/ai-seguridad-privacidad-grandes-modelos-linguisticos/


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70000012/viewspace-2997131/,如需轉載,請註明出處,否則將追究法律責任。

相關文章