Omdia 的新報告《人工智慧監管:全球政策和監管框架比較》的分析表明,一些國家已經開始透過公眾諮詢、市場審查、全球討論、法律草案和政策等方式對人工智慧進行監管。總體而言,對於在醫療保健等高風險環境中規範使用人工智慧的必要性已開始形成某種形式的共識。<p>

Omdia公司監管部門首席分析師 Sarah McBride在接受採訪時提到:”新技術的採用往往會引發爭論,但人工智慧的爭論尤其迅速,討論迅速成為公眾的主流”,事實證明,人工智慧技術是如此具有爭議性,以至於連人工智慧公司自己都在呼籲制定法規,為它們提供明確的工作界限。Sarah McBride 指出:”某種形式的監管是不可避免的,但在缺乏指導方針的情況下,企業正在建立自己的標準框架,用於開發、評估和部署負責任的人工智慧。然而,由於不知道未來的法規到底會是什麼樣子,這些公司現在有可能做出錯誤的選擇,這在未來可能很難扭轉”。

新加坡已經發布了第二份《國家人工智慧戰略》,而歐盟委員會則是第一個在 2021 年 4 月釋出人工智慧監管框架草案的監管機構。它採用了基於風險的方法,根據安全風險等級對人工智慧系統實施禁止,而英國等其他一些國家的監管行動計劃則規定了針對特定行業的人工智慧監管方法。同時,在美國,人工智慧監管的初步方法側重於特定的人工智慧用例,國家標準與技術研究院一直在制定人工智慧技術的設計、測試和部署標準。中國在人工智慧監管框架方面也取得了進展,在涉及人工智慧開發、部署和安全時,優先考慮生成式人工智慧等方面,並關注主權問題。

Omdia 的報告指出了監管機構必須應對的七大挑戰,以確保人工智慧發展帶來的眾多機遇得以實現,其中包括:安全性、隱私、道德、可控性、透明度和問責制、安全性以及版權和智慧財產權法。監管機構已經開始著手解決其中的一些問題,迄今為止釋出的大多數指導方針都非常關注與人工智慧實施相關的道德和法律問題,但預計明年這一程序只會加快,因為監管機構將重點關注特定行業的法律以及人工智慧應用與現有監管政策之間可能存在利益衝突的領域,如資料保護法、版權法、過時的使用者同意方法、許可協議或許可證以及特定行業的法律。

McBride 說:”第一步應該是確定哪些部門或用例由於不適當的立法而嚴重阻礙了人工智慧的採用,並修訂其中幾項現行甚至過時的法規,以避免扼殺創新。該行業面臨的另一個挑戰是,在直接監管人工智慧的領域(如歐盟《人工智慧法》)與透過其他現有立法和新立法(如歐盟《DSA》和《DMA》)監管人工智慧的領域之間可能存在爭議。”

人工智慧的廣泛性給監管和保護終端使用者免受傷害帶來了問題。它不僅模糊了市場的傳統定義,給執法帶來挑戰;而且還超越了國際行政邊界。人工智慧還對監管機構預測人工智慧服務的特定結果何時會是惡意的提出了挑戰。McBride說:”這促使世界各國政府和監管機構加快努力,評估需要多大程度的監管參與。”

來自:Omdia