人工智慧:大型語言模型的安全和隱私挑戰
生成人工智慧工具,如ChatGPT或Bard,與大型語言模型(LLM)一起工作,並在企業環境中越來越多地使用。對於組織來說,要利用大型語言模型(LLM) 的潛力,還要能管理隱藏其中的安全風險。
ChatGPT和其他生成人工智慧工具與LLM一起工作。透過使用人工神經網路來處理大量的文字資料。在學習了單詞之間的模式以及在上下文中的使用方式後,模型就能夠用自然語言與使用者進行互動。
LLM支援的生成人工智慧模型,如ChatGPT等聊天機器人中使用的模型,就像超級搜尋引擎一樣,使用經過訓練的資料來回答問題,並模仿人類語言模式完成任務。無論是公開可用的模型,還是組織內部使用的模型,基於LLM的生成人工智慧都可能使公司面臨某些安全和隱私風險。
LLM 的 5 大風險
1. 共享敏感資料
基於LLM的聊天機器人不擅長保守秘密。這意味著輸入的任何資料都可以被模型吸收並提供給其他人,或者至少用於訓練未來的LLM模型。
2. 版權問題
LLM是由大量的資料形成的。但這些資訊通常是在未經內容所有者明確許可的情況下從網際網路上提取的。如果使用可能會導致版權問題。當前的問題是,有些特定訓練資料的原始來源很難找到,這也增加了解決版權問題的困難。
3. 不安全的程式碼
開發者越來越多地轉向ChatGPT和類似的工具來加快產品研發。從理論上講,它可以幫助快速有效地生成程式碼片段甚至完整的軟體程式。然而,安全專家警告稱,這也會產生漏洞。如果開發人員缺乏足夠的知識來尋找錯誤,將帶來潛在的安全威脅。如果有缺陷的程式碼進入到生產中,可能會對聲譽造成嚴重影響,並且需要時間和金錢來修復問題。
4. 破解 LLM 本身
未經授權的LLM訪問和操作可能為執行惡意活動提供許多選項,例如透過命令注入攻擊讓模型洩露敏感資訊,或執行其他本應被阻止的操作。其他攻擊可能涉及利用LLM伺服器上的伺服器端請求偽造(SSRF)漏洞,這將允許攻擊者提取內部資源。威脅行為者甚至可以找到一種與敏感系統和資源互動的方法,只需透過自然語言提示傳送惡意命令。為了提高人們對LLM應用程式漏洞的認識,OWASP基金會最近釋出了一份清單,列出了這些應用程式中常見的10個關鍵安全漏洞。
5. 人工智慧提供商的資料洩露
開發人工智慧模型的公司總有可能遭遇安全漏洞,例如,網路攻擊者可能會竊取包含敏感資訊的訓練資料。
該如何應對?
資料加密和匿名化:在與LLM共享資料之前加密資料,以保護資料不被窺探,考慮匿名技術,以保護可能在資料集中被識別的個人隱私。資料清理可以達到同樣的目的,在將訓練資料引入模型之前,從訓練資料中刪除敏感細節。
包含增強的訪問控制:強密碼、多重身份驗證 (MFA) 和最低特權策略將有助於確保只有經過授權的個人才能訪問生成式 AI 模型和後端系統。
定期進行安全審計:有助於發現 IT 系統中的漏洞,這些漏洞可能會影響 LLM 及其所基於的生成式 AI 模型。
實踐事件響應計劃:一個可靠的、經過精心演練的計劃將有助於組織快速響應,以遏制、補救任何違規行為並從中恢復。
把控LLM供應商:與任何供應商一樣,確保提供LLM的公司遵循資料安全和隱私方面的行業實踐很重要。確保清楚地告知使用者資料在哪裡被處理和儲存,以及它們是否被用於訓練模型。它們能儲存多久?它們是否與第三方共享?使用者可以選擇他們的資料不用於培訓嗎?
確保開發人員遵循嚴格的安全準則:如果開發人員使用 LLM 生成程式碼,需要確保他們遵守策略,例如安全測試和同行評審,以降低錯誤潛入生產環境的風險。
參讀來源:
https://www.welivesecurity.com/es/seguridad-corporativa/ai-seguridad-privacidad-grandes-modelos-linguisticos/
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70000012/viewspace-2997131/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 常見的安全模型、攻擊模型和隱私需求模型
- 大型語言模型(Large Language Models)的介紹模型
- 人工智慧的下一個重大挑戰:理解語言的細微差別人工智慧
- 如何開始定製你自己的大型語言模型模型
- 利用大型語言模型輕鬆打造浪漫時刻模型
- OpenAI 是怎麼“壓力測試”大型語言模型的?OpenAI模型
- 一文解碼語言模型:語言模型的原理、實戰與評估模型
- 微信隱私安全設定教程 如何設定微信隱私安全?
- 大型語言模型將如何重新定義製造業?模型
- LMOS:大型語言模型作業系統正在到來!模型作業系統
- 號碼隱私保護服務:保障億萬消費者的隱私安全
- 微調大型語言模型進行命名實體識別模型
- 隱私計算 FATE - 模型訓練模型
- 人工智慧和隱私熱議 瞭解AI透明性的利弊人工智慧AI
- Little Snitch 5 for Mac:保護你的隱私和網路安全!Mac
- 銘說 | 淺論資料安全中的隱私計算方法之差分隱私
- RSA Security:2019年資料隱私和安全報告
- DAAM:首次利用視覺語言學解釋大型擴散模型視覺模型
- 容器雲安全挑戰和攻防應對
- 隱私計算FATE-模型訓練模型
- 搭建人工智慧多模態大語言模型的通用方法人工智慧模型
- 如何全面保護AI資料隱私和資料安全?AI
- 通過語言的比喻句發現隱藏的DDD模型 - verraes模型
- nlp中的傳統語言模型與神經語言模型模型
- 容器安全的三大挑戰
- Apache SeaTunnel 2.3.7釋出:全新支援大型語言模型資料轉換Apache模型
- 壓縮大型語言模型(LLMs):縮小10倍、效能保持不變模型
- 隱私計算在智慧城市建設中的應用:平衡公共安全與個人隱私
- 大資料安全與隱私保護大資料
- AI 海洋中的塞壬之歌:大型語言模型中的幻覺現象綜述AI模型
- 隱私計算:保護資料隱私的利器
- 基於大型語言模型爬蟲專案Crawl4AI介紹模型爬蟲AI
- SD-WAN安全防護模型及能力建設挑戰分析模型
- 如何應對Kubernetes的安全挑戰?
- 雲原生安全的挑戰有哪些?
- 大語言模型模型
- 語言大模型大模型
- 隱私安全的必答題,網易雲信如何解?