4月15日-19日,第27屆聯合國科技大會在瑞士日內瓦召開。16日,在以“塑造AI的未來”為主題的AI邊會上,世界數字技術院(WDTA)釋出了一系列突破性成果,包括《生成式人工智慧應用安全測試標準》和《大語言模型安全測試方法》兩項國際標準。這是國際組織首次就大模型安全領域釋出國際標準,代表全球人工智慧安全評估和測試進入新的基準。
據瞭解,這兩項國際標準是由OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等數十家單位的多名專家學者共同編制而成。其中《大語言模型安全測試方法》由螞蟻集團牽頭編制。
(圖:WDTA釋出大模型安全國際標準,OpenAI、螞蟻集團、科大訊飛等參編)
與會的WDTA人工智慧安全可信負責任工作組組長黃連金表示,隨著人工智慧系統,特別是大語言模型繼續成為社會各方面不可或缺的一部分,以一個全面的標準來解決它們的安全挑戰變得至關重要。此次釋出的標準彙集了全球AI安全領域的專家智慧,填補了大語言模型和生成式AI應用方面安全測試領域的空白,為業界提供了統一的測試框架和明確的測試方法,有助於提高AI系統安全性,促進AI技術負責任發展,增強公眾信任。
世界數字技術院(WDTA)是在日內瓦註冊的國際非政府組織,遵從聯合國指導框架,致力於在全球範圍內推進數字技術,促進國際合作。AI STR(安全、可信、負責任)計劃是WD他的核心倡議,旨在確保人工智慧系統的安全性、可信性和責任性。螞蟻集團、華為、科大訊飛、國際資料空間協會(IDSA)、弗勞恩霍夫研究所、中國電子等均為其成員單位。
近年來,世界各國都在加強對於大模型安全的研究和管控。我國先後釋出了《全球人工智慧治理倡議》《生成式人工智慧服務管理暫行辦法》《生成式人工智慧服務安全基本要求》等,旨在促進生成式人工智慧安全可信發展,推進全球人工智慧治理領域合作共識。
資訊顯示,此次釋出的兩項國際標準是大模型及生成式AI應用方面的安全測試標準。
其中,《生成式人工智慧應用安全測試標準》由WDTA作為牽頭單位。該標準為測試和驗證生成式AI應用的安全性提供了一個框架,特別是那些使用大語言模型(LLM)構建的應用程式。它定義了人工智慧應用程式架構每一層的測試和驗證範圍,包括基礎模型選擇、嵌入和向量資料庫、RAG或檢索增強生成、AI應用執行時安全等等,確保AI應用各個方面都經過嚴格的安全性和合規性評估,保障其在整個生命週期內免受威脅和漏洞侵害。
《大語言模型安全測試方法》由螞蟻集團作為牽頭單位。該標準則為大模型本身的安全性評估提供了一套全面、嚴謹且實操性強的結構性方案。它提出了大語言模型的安全風險分類、攻擊的分類分級方法以及測試方法,並率先給出了四種不同攻擊強度的攻擊手法分類標準,提供了嚴格的評估指標和測試程式等,可解決大語言模型固有的複雜性,全面測試其抵禦敵對攻擊的能力,使開發人員和組織能夠識別和緩解潛在漏洞,並最終提高使用大語言模型構建的人工智慧系統的安全性和可靠性。
(圖:螞蟻集團王維強作為標準參與單位代表,在會上發言)
作為標準參與單位代表,螞蟻集團機器智慧部總經理、螞蟻安全實驗室首席科學家王維強受邀參會並進行了發言。他表示,生成式AI將釋放巨大的生產力,但也要對它帶來的新風險高度警惕。大型科技公司應在促進生成式AI安全和負責任的發展中發揮關鍵作用,利用其資源、專業知識和影響力推動最佳實踐,構建一個優先考慮安全、隱私和道德考量的生態系統。例如,透過制定行業標準與指南,為開發和部署生成式AI系統的開發者和機構提供清晰指導;投入研發並開放保障生成式AI安全的工具,形成產業共治。
公開資料顯示,螞蟻集團從2015年起就積極投入可信AI技術研究,目前已建立了大模型綜合安全治理體系。螞蟻集團還自研了業界首個大模型安全一體化解決方案“蟻天鑑”,用於AIGC安全性和真實性評測、大模型智慧化風控、AI魯棒和可解釋性檢測等。此次釋出的《大語言模型安全測評方法》,便是基於“蟻天鑑”AI安全檢測體系的應用實踐,與全球生態夥伴交流編制。此外,螞蟻集團在公司內成立了科技倫理委員會和專門團隊來評估和管理生成式AI的風險,公司所有AI產品均需透過科技倫理評測機制,確保AI安全可信。