ENISA釋出了“2023年AI和標準化網路安全報告”,總體目標是概述與人工智慧(AI)網路安全相關的標準,評估其覆蓋範圍並確定標準化方面的差距。它透過考慮人工智慧的特殊性,特別是機器學習,並透過採用廣泛的網路安全觀點,包括“傳統的”機密性(完整性)可用性正規化和更廣泛的人工智慧可信度概念來實現這一點。最後,報告探討了標準化如何支援實施擬議的歐盟法規中嵌入的網路安全,該法規制定了人工智慧協調規則。

報告描述主要標準制定組織(SDO)的活動,涵蓋人工智慧的標準化前景。

報告認為,現有的通用技術和組織標準可以透過具體指導在人工智慧環境中的應用,有助於減輕人工智慧面臨的一些風險。這種考慮源於這樣一個事實:本質上,人工智慧是軟體,因此軟體安全措施可以轉移到人工智慧領域。

最後,報告透過將分析擴充套件到人工智慧法案草案來補充上述觀察結果。首先,報告強調了將網路安全納入高風險系統評估的重要性,以確定每個系統特定用途的網路安全風險。其次,報告強調缺乏涵蓋執行合格評定行為者的能力和工具的標準。第三,人工智慧法案草案和網路安全法(CSA)制定的治理體系應協調一致,以避免國家層面的重複努力。

最後,報告得出結論,只有隨著人工智慧技術的進步,以及對標準化如何支援網路安全的進一步研究,一些標準化差距才會變得明顯。

PDF版本將分享到199IT知識星球,掃描下面二維碼即可下載!