天空衛士RSAC大會第一視角:如何使用AI輔助下一代安全技術

北京天空衛士發表於2023-04-27
美國時間4月24日,全球網路安全行業盛會RSA Conference在舊金山隆重開幕。 今年RSAC 的主題是  “Stronger Together 和衷共濟 ,無懈可擊) 議程包含:2023主要安全風險、資料分類及其重要性、混合世界的現代資料保護等主題演講。來自全球的500多家網路安全廠商匯聚於此,圍繞25個主題深度展開探討,從經濟形式、法律法規、安全技術等多個維度探討網路安全產業的發展趨勢與新機遇。

RSA Conference 2023

本次大會最熱的議題有哪些?天空衛士合夥人、技術總監楊明非親臨現場,從資料安全的角度為大家發來“報導”。

在今年RSAC開幕主題演講裡,被頻繁提及的幾個熱詞有:

AI、ChatGPT、 

Machine Learning

內容集中在如何使用AI輔助下一代安全技術。在各個行業、應用中AI被大量使用,風險與機遇並存,因為初期不完善的AI系統可能會存在更多的安全風險。


要說2023年最火熱的領域,必然是以ChatGPT為代表的生成式人工智慧。將網路安全和人工智慧相結合,也一直是行業期望的目標。但是“風光無限”中也蘊含著重重危機。

三星公司的洩密事件發生

今年發生的三星公司的洩密事件,在三星半導體部門開始允許工程師使用ChatGPT後不久,工作人員至少三次向ChatGPT洩露秘密資訊。據報導,一名員工要求聊天機器人檢查敏感的資料庫原始碼是否有錯誤,另一名員工要求程式碼最佳化,第三名員工將錄製的會議輸入 ChatGPT 並要求其生成會議記錄。


由此可以看到, 人工智慧的應用,在業務增強的同時,安全尤其是資料安全將會逐步成為導致數字化“高樓”轟然倒塌的觸發點。根據Gartner的報告,每5個企業中就有2個企業存在AI的安全問題或者隱私洩露,其中1/4是惡意攻擊導致。因此,AI的安全形勢不容忽視, AI帶來的資料型別與資料價值增加的同時,產生的問題也是企業需要高度關注的部分。

如何讓AI的使用更安全?

在AI的應用過程中同樣存在大量的使用者端風險。我們如何讓AI的使用更安全呢?對於安全行業而言, 一方面需要利用人工智慧來增強安全的防護能力, 另一方面還需要對人工智慧的應用提供安全保護。不再是對傳統安全中的入侵、病毒、木馬等的防護,而是更高的演算法與演算法的對抗,資料與資料的對抗,同時,還有人的惡意攻擊、疏忽參雜在其中,這都將導致人工智慧的安全問題變得更為複雜。


天空衛士“以人為本“的資料安全體系圍繞整個AI系統,對訓練樣本、學習樣本以及業務資料等出入AI平臺的資料進行多層次的安全核查,包括病毒、檔案格式、檔案內容等,實現多層次立體安全防護。同時對系統管理員、資料分析師等終端提供資料安全保護,透過平臺統一管理模型為AI系統提供全方位的資料保護。在三星的案例中,我們可以 植入天空衛士資料安全體系,對員工的失誤進行有效的阻止和報警,有效阻斷使用AI系統時的洩密風險


新的人工智慧時代已真正到來,但如同每一次技術變革,新的AI應用場景也帶來新的資料隱私安全挑戰。ChatGPT 2個月使用者破億成為現象級應用後,商業機密洩密與使用者隱私資料跨境、出境與合規問題,迅速引起廣泛關注。國家監管層面,4月11日,國家網信辦正式釋出《生成式人工智慧服務管理辦法(徵求意見稿)》,明確強調 “透過提供可程式設計介面等方式支援他人自行生成文字、影像、聲音等,承擔該產品生成內容生產者的責任;涉及個人資訊的,承擔個人資訊處理者的法定責任,履行個人資訊保護義務。”

資料安全技術應該適應技術迭代,與時俱進,新的AI應用更需要新一代基於AI的技術體系解決資料安全問題,讓新技術能夠促進而非阻礙業務發展。天空衛士ITP內部威脅防護體系,基於大資料及人工智慧技術對各類資料與行為進行分析,將異常使用者風險評分結果與統一內容安全策略整合聯動,實現實時風險控制和精準的策略控制,將資料安全保護能力的邊界從傳統IT擴充套件到新型AI等業務應用資料,達到動態自適應調整資料安全。



來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70012716/viewspace-2949414/,如需轉載,請註明出處,否則將追究法律責任。

相關文章