20天發生三起事故,三星剛用上ChatGPT就洩露了機密資訊

Editor發表於2023-04-04

據外媒報導,韓國科技巨頭三星前不久發生了好幾起由ChatGPT引起的資訊洩露事件,裝置測量、產量資料、內部會議等機密內容都被傳輸到了海外。


最初因擔心可能會洩露公司內部機密資訊,三星本來一直是禁止其企業內部使用ChatGPT等大型語言模型的。但從3月11日起,在認識到需要跟上技術進步後,三星的DS部門批准了使用GPT,並特別在公告中提醒員工 “注意公司內部資訊保安,不要輸入敏感內容”。


結果,就在三星DS部門更改政策不到20天的時間裡,陸續發生了三起其所擔心的資訊洩露事故:其中一位員工複製了他工作中遇到的問題相關的原始碼,並輸入到了ChatGPT之中,向該AI詢問解決方案;而另一位員工則在 ChatGPT 中輸入了與裝置良品率相關的程式程式碼,並向AI請求程式碼最佳化;最後一位員工則是將會議內容輸入到ChatGPT中要求AI為其編寫會議記錄。


本來在ChatGPT的使用指南中,OpenAI也有明確說明輸入給ChatGPT的文字內容會被用於進一步訓練模型,警告使用者不要提交敏感資訊。而三星這三位員工的操作就意味著,他們提交的這些資料都被傳輸給了ChatGPT所屬的美國公司OpenAI,並有可能被用作了該模型的訓練資料。三星公司在知悉這些事件後,緊急採取了一系列緩解措施,例如將上傳內容限制在1024位元組以內等。三星目前正向事故相關職員調查原委,必要時給予處罰。


20天發生三起事故,三星剛用上ChatGPT就洩露了機密資訊


根據資料分析機構cyberhaven的一份研究報告,約有3.1%的員工會將公司機密資料複製給ChatGPT。ChatGPT能夠在一定程度上提高工作效率不假,但其存在的安全隱患同樣不容忽視。當前,已有多家大型企業明確禁止或限制其員工使用ChatGPT,例如摩根大通、Verizon、高盛集團、花旗集團等。義大利資料保護局也在最近宣告禁止該工具的使用,除非OpenAI修改其資料收集政策。



編輯:左右裡

資訊來源:economist、cyberhaven

轉載請註明出處和本文連結


每日漲知識

演算法(algorithm)

對輸入資料執行的一組規則或過程。通常與加密函式相關,指定加密和解密的排列。





20天發生三起事故,三星剛用上ChatGPT就洩露了機密資訊


相關文章