為避免政府過度「插手」,美國白宮提出十條AI監管規範,公眾、靈活性、技術風險等成關鍵詞

機器之心發表於2020-01-08

為避免政府過度「插手」,美國白宮提出十條AI監管規範

該項包含監管意味的指導檔案由美國第四任首席技術 Michael Kratsios 主導推進,將在今年的 CES 上正式宣佈,目的在於限制主管機關「過度插手」,並表示希望歐洲當局同樣能夠避免採取激進措施。

檔案涉及十條指導規範,其中對於人工智慧技術的產業的思考深入而全面,強調公眾層面的信任與參與,強調使用誠實與科學的方法,指出要進行全面而有效的風險評估機制,還要兼顧技術投入的收益與成本、靈活性,以及技術可能造成的歧視與不平等,強調資訊披露和透明度,以及使用過程中的安全性、機構間的協調合作。

2019 年,技術管制是美國對外政策的關鍵詞,到了 2020 年,這個趨勢仍在延續。

上週美國宣佈限制 AI 軟體出口,防止敏感技術旁落。本週二,白宮釋出規範人工智慧發展及應用的監管原則,一份名為《人工智慧應用規範指南(Guidance for Regulation of Artificial Intelligence Applications)》的檔案,目的在於限制主管機關「過度插手」,並表示希望歐洲當局同樣能夠避免採取激進措施。

比如,在指導的第六條規範中明確指出,「為了推進美國的創新,各機構應牢記人工智慧的國際應用,確保美國公司不受美國監管制度的不利影響。

該套檔案將由美國技術長 Michael Kratsios 在本週舉行的美國拉斯維加斯 CES2020 消費電子展上宣佈,以指導未來聯邦政府用於醫學、交通和其他行業的人工智慧法規制定,在制定法規時,聯邦機構必須考慮公平,不歧視,開放,透明,安全,並且儘可能減少法規監管。

例如,檔案提到,美國食品藥物管理局 (FDA) 目前正在考慮如何規範醫療裝置製造商對 AI 和機器學習技術的使用。

檔案指出,各聯邦機構就 AI 採取任何監管行動之前,應該進行風險評估及成本效益分析,將重點放在建立有彈性的架構,而非一刀切的監管做法。

白宮提出上述原則正值各企業競相整合 AI 及深度學習至其事業,以保持公司競爭力之時。但多家公司和專家表示,這項技術引發了有關控制、隱私、網路安全及未來工作等方面的道德疑慮。

檔案還表示,「歐洲以及我們的盟國應避免使用過度干預、扼殺創新的監管方式。」其補充說,「避免 AI 技術出現壟斷的最佳方法就是確保美國和我們的國際夥伴仍然是全球創新中心。」

該份檔案在生效前有 60 天的公眾意見徵詢期,各個政府機構將有 180 天的時間來制定實施原則的計劃。

為避免政府過度「插手」,美國白宮提出十條AI監管規範


技術長 Michael Kratsios

Kratsios 畢業於普林斯頓大學 ,曾是 Thiel Capital 公司的 CEO,今年 8 月成為美國第四任技術長,美國技術長角色是在奧巴馬時期建立,技術長職位就技術問題向總統提出建議,致力於制定技術政策。在 Kratsios 的領導下,白宮發起了 AI、量子計算、5G 和寬頻通訊、自動駕駛汽車、商用無人機以及先進製造等各方面的計劃。

Kratsios 在接受媒體採訪時表示,這些原則旨在確保安全、透明地開發 AI,目前諸如中國和俄羅斯這樣的競爭對手在 AI 開發上過於激進,人們越來越擔心 AI 工具不受限制的普及,尤其是面部識別,此次規則的制定能夠反映美國在人工智慧上的態度與原則。

據瞭解,白宮曾於 2018 年與福特汽車、波音、亞馬遜以及微軟等 30 多家主要公司舉行了 AI 會議,表態不會妨礙該技術的發展。

去年 2 月,美國總統川普簽署了一項行政命令,要求聯邦政府機構將更多的資源和投資用於與 AI 相關的研究、推廣和相關人員培養。

但目前美國部分州已經對 AI 應用提出了擔憂。加利福尼亞州的立法機關在 9 月份通過了一項針對州和地方執法機構的三年禁令:禁止使用帶有面部識別軟體的人體攝像機。有人說這是對公民自由構成威脅的最新技術限制。另外,美國一些城市還投票通過了執法部門禁止使用面部識別技術的法案。

此前,美國已經拒絕與其他七國集團(G7)合作開展名為全球人工智慧合作計劃的專案,該專案旨在建立共同的原則和法規。Kratsios 表示,七國集團的計劃以官僚主義干預、扼殺創新,他希望其他國家在制定自己的 AI 法規時能效仿美國。

但是,一些評論者質疑這些原則的有效性。

Martijn Raasser 認為,這些原則是公開地對各個獨立機構進行干預;此外,原則非常模糊,機構們據此制定出來的計劃都應該被否決,如果美國堅持單獨行動,影響力可能會變小,與其他國家走不同的道路對美國來說是不利的。

Martijn Raasser 是新美國安全中心(CNAS)的技術和國家安全計劃的高階研究員,加入 CNAS 之前,Martijn 在中央情報局(Central Intelligence Agency)擔任高階情報官和分析師,在那裡他從事國外新興技術,技術創新以及武器研發等工作。

為避免政府過度「插手」,美國白宮提出十條AI監管規範


以下是該份名為《人工智慧應用規範指南(Guidance for Regulation of Artificial Intelligence Applications)》主要內容,具體包括十條指導規範。

詳情可見:https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf

1 公眾對人工智慧的信任

人工智慧將在社會和經濟生活各個領域產生積極影響,包括就業、交通、教育、金融、醫療保健、個人保障和製造業。與此同時,人工智慧應用可能會對隱私、個人權利、自主權和公民自由構成風險,必須仔細評估並妥善處理這些風險。

人工智慧的繼續採用和接受將在很大程度上取決於公眾的信任和認可。

因此,政府對人工智慧的監管和非監管方法促進可靠、穩健和可信的人工智慧應用是非常重要的,這將有助於公眾對人工智慧的信任。對隱私和其他風險的適當監管或非監管響應必須取決於所呈現的風險的性質和適當的緩解措施。

2 公眾參與

公眾參與,特別是在人工智慧使用有關個人資訊的情況下,將改善機構的問責制和監管結果,並增加公眾的信任和信心。

機構應在可行且符合法律要求的範圍內,為公眾提供充足的機會,參與規則制定過程的所有階段。

鼓勵各機構在切實可行的範圍內,向公眾通報情況,並提高公眾對標準和其他資訊性檔案的認識和普及。

3 科學誠信與資訊質量

政府對人工智慧應用的監管和非監管方法應利用科學技術資訊和流程。

各機構應以高質量、高透明度和高合規性的標準存檔資訊,這些資訊包括可能對重要的公共政策或私營部門決策(包括消費者的決策)產生明確和實質性影響,無論這些資訊是由政府提供的還是由政府從第三方獲得的。

根據規則制定和指導過程中的科學完整性原則,各機構應制定有關人工智慧的監管方法,既為政策決策提供資訊,又可促進公眾對人工智慧的信任。

最佳實踐包括透明地闡明人工智慧應用程式的優點、缺點、預期的優化或結果、偏差緩解和結果的適當使用。

各機構還應注意,為了使人工智慧應用程式產生可預測、可靠和優化的結果,用於訓練人工智慧系統的資料必須具有足夠的質量,以達到預期用途。

4 風險評估與管理

對人工智慧的監管和非監管方法應基於風險評估和風險管理在不同機構和不同技術之間的一致應用。

沒有必要降低每一個可預見的風險。

事實上,監管政策的一個基本原則是,所有活動都需要權衡。應採用基於風險的方法來確定哪些風險是可接受的,哪些風險可能造成不可接受的損害,或者損害的預期成本大於預期收益。

各機構對其風險評估應保持透明,並在適當的時間間隔內重新評估其假設和結論,以促進問責制。

相應地,如果人工智慧工具失敗或成功,根據產生的後果以及性質可以幫助確定適當的監管力度和型別,以識別和減輕風險。

具體而言,各機構應遵循第 12866 號行政命令「監管規劃和審查」的指示,考慮其管轄範圍內各種活動所構成風險的程度和性質。在適當的情況下,五種預防性監管方法將避免因不合理使用而帶來不必要的危害。

5 收益與成本

在制定監管和非監管方法時,機構通常會考慮將人工智慧應用和部署到已受監管的行業中。

據推測,除非這些投資提供了巨大的經濟潛力,否則不會有如此重大的投資。與所有這種性質的技術轉變一樣,人工智慧的引入也可能帶來獨特的挑戰。

例如,雖然更廣泛的法律環境已經應用於人工智慧應用,但在某些情況下,現有法律對責任和責任問題的應用可能不清楚,這導致一些機構需要與他們的當局相一致,來評估利益、成本,與任何確定的或預期的責任方法相關的分配效應。

行政命令 12866 呼籲機構「選擇那些最大化淨利益的方法(包括潛在的經濟、環境、公共衛生和安全,以及其他優勢;分配影響和公平性)。在符合法律規定的情況下,機構在考慮與人工智慧應用程式的開發和部署有關的法規之前,應仔細考慮全面的社會成本、效益和分配效果。

與設計用來補充或替代人工智慧的系統相比,這種考慮將包括採用人工智慧產生的潛在收益和成本,實施人工智慧是否會改變系統產生的錯誤型別,以及與其他現有的容忍風險的程度進行比較。

各機構在評估人工智慧成本和效益時,也應考慮關鍵的依賴性,因為技術因素(如資料質量)和人工智慧實施相關的人類過程的變化可能會改變風險和效益的性質和程度。如果無法與當前系統或流程進行比較,也應評估不實施系統的風險和成本。

6 靈活性

在開發監管和非監管方法時,機構應採用基於績效的靈活方法,以適應人工智慧應用的快速變化和更新。

在大多數情況下,試圖規定僵化的人工智慧應用技術規範、基於設計的法規是不切實際和無效的,因為人工智慧將以預期的速度發展,因此機構需要對新的資訊和證據作出反應。

有針對性的機構合格評定計劃,以保護健康和安全、隱私和其他價值,對一個成功的、靈活的、基於績效的方法至關重要。

為了推進美國的創新,各機構應牢記人工智慧的國際應用,確保美國公司不受美國監管制度的不利影響。

7 公平和不歧視

各機構應以透明的方式考慮人工智慧應用可能對歧視產生的影響。人工智慧的應用有可能減少目前由人的主觀性造成的歧視。

同時,在某些情況下,應用可能會引入現實世界的偏見,產生歧視性的結果或決定,損害公眾對人工智慧的信任和信心。

在考慮與人工智慧應用相關的法規或非法規方法時,各機構應依法考慮有關人工智慧應用產生的結果和決定的公平和不歧視問題,以及有關人工智慧應用是否可能降低非法、不公平的程度,或與現有過程相比,其他意想不到的歧視。

8 披露和透明度

除了改進規則制定過程外,透明度和公開還可以增加公眾對人工智慧應用的信任和信心。

有時,此類公開內容可能包括識別人工智慧的使用時間。如果適用於解決有關應用程式如何影響人類終端使用者的問題。機構應該意識到人工智慧的一些應用可以提高人類的自主性。

在考慮採取更多的公開和透明措施之前,機構應該仔細考慮現有的或正在發展的法律、政策和監管環境的充分性。

適當的公開和透明要視具體情況而定的,這取決於對潛在危害的評估、危害的大小、技術水平以及人工智慧應用的潛在好處。

9 安全

各機構應安全,有保障,按預期執行開發 AI 系統,並在整個 AI 設計、開發、部署和執行過程中考慮安全問題,此外還應特別注意現有的保障措施,以確保人工智慧系統處理,儲存和傳輸的資訊的保密性,完整性和可用性。

各機構應進一步考慮擔保人的方法監測系統的彈性,防止不法人士利用人工智慧系統的弱點,包括 AI 運作中帶來的網路安全風險,以及對受監管機構的人工智慧技術進行對抗性使用。

在評估或介紹 AI 政策時,各機構應謹記任何潛在的安全風險,以及可能惡意部署和使用 AI 應用程式的風險。

10 機構間協調

各機構應相互協調,分享經驗,確保人工智慧相關政策的一致性和可預見性,以促進美國人工智慧領域的創新和增長,同時保護隱私,公民自由和美國價值觀,並在適當時允許採取針對具體部門和應用的方法。

根據第 12866 號行政命令,為了機構間審查的目的,簽署與人工智慧有關的管制行動草案 為「重大」,資訊與規制事務辦公室 (Office of Information and Regulatory Affairs)將確保所有可能受到某一特定行動影響或感興趣的機構都有機會提供自己的想法意見。

相關文章