作者|曹建峰  騰訊研究院高階研究員

方齡曼 騰訊研究院法律研究中心助理研究員

歐盟積極推進以人為本的人工智慧倫理與治理

數字技術的發展和滲透加速了社會與經濟的轉型變革,人工智慧(AI)作為其中的核心驅動力為社會發展創造了更多可能。一般而言,AI是指基於一定資訊內容的投入實現自主學習、決策和執行的演算法或者機器,其發展是建立在計算機處理能力提高、演算法改進以及資料的指數級增長的基礎上。從機器翻譯到影象識別再到藝術作品的合成創作,AI的各式應用開始走進我們的日常生活。當今,AI技術被廣泛運用於不同行業領域(如教育、金融、建築和交通等),並用於提供不同服務(如自動駕駛、AI醫療診斷等),深刻變革著人類社會。與此同時,AI的發展也對法律、倫理、社會等提出挑戰,帶來了假新聞、演算法偏見、隱私侵犯、資料保護、網路安全等問題。在此背景下,人工智慧倫理與治理日益受到重視,從政府到行業再到學術界,全球掀起了一股探索制定人工智慧倫理準則的熱潮。而歐盟從2015年起就在積極探索人工智慧倫理與治理舉措,雖然在AI技術的發展上沒能先發制人,AI治理方面卻走在了世界前沿。

早在2015年1月,歐盟議會法律事務委員會(JURI)就決定成立專門研究機器人和人工智慧發展相關法律問題的工作小組。2016年5月,JURI釋出《就機器人民事法律規則向歐盟委員會提出立法建議的報告草案》(Draft Report with Recommendations to the Commission on Civil LawRules on Robotics),呼籲歐盟委員會評估人工智慧的影響,並在2017年1月正式就機器人民事立法提出了廣泛的建議,提出制定「機器人憲章」。[1]2017年5月,歐洲經濟與社會委員會(EESC)釋出了一份關於AI的意見,指出AI給倫理、安全、隱私等11個領域帶來的機遇和挑戰,倡議制定AI倫理規範,建立AI監控和認證的標準系統。[2]同年10月,歐洲理事會指出歐盟應具有應對人工智慧新趨勢的緊迫感,確保高水平的資料保護、數字權利和相關倫理標準的制定,並邀請歐盟委員會在2018年初提出應對人工智慧新趨勢的方法。[3]為解決人工智慧發展和應用引發的倫理問題,歐盟已將AI倫理與治理確立為未來立法工作的重點內容。

2018年4月25日,歐盟委員會釋出政策檔案《歐盟人工智慧》(Artificial Intelligent for Europe),歐盟人工智慧戰略姍姍來遲。該戰略提出以人為本的AI發展路徑,旨在提升歐盟科研水平和產業能力,應對人工智慧和機器人帶來的技術、倫理、法律等方面的挑戰,讓人工智慧更好地服務於歐洲社會和經濟的發展。歐盟人工智慧戰略包括三大支柱:其一、提升技術和產業能力,促進人工智慧技術廣泛滲透到各行各業;其二、積極應對社會經濟變革,讓教育和培訓體系跟上時代發展的步伐,密切監測勞動力市場的變化,為過渡期勞動者提供支援,培養多元化、跨學科人才;其三、建立適當的倫理和法律框架,闡明產品規則的適用,起草並制定人工智慧倫理指南(AI ethics guidelines)。[4]同年6月,歐盟委員會任命52名來自學術界、產業界和民間社會的代表,共同組成人工智慧高階專家小組(High-Level Expert Group on AI,簡稱AI HELP),以支撐歐洲人工智慧戰略的執行。

2019年1月,歐盟議會下屬的產業、研究與能源委員會發布報告,呼籲歐盟議會針對人工智慧和機器人制定全方位的歐盟產業政策,其中涉及網路安全、人工智慧和機器人的法律框架、倫理、治理等。[5]2019年4月,歐盟先後釋出了兩份重要檔案——《可信AI倫理指南》(Ethics Guidelines for Trustworthy AI,簡稱「倫理指南」)[6]和《演算法責任與透明治理框架》(A governance framework for algorithmic accountability andtransparency,簡稱「治理框架」)[7],系歐盟人工智慧戰略提出的「建立適當的倫理和法律框架」要求的具體落實,為後需相關規則的制定提供參考,代表歐盟推動AI治理的最新努力。

人工智慧倫理框架建構:可信AI的倫理指南

為平衡技術創新和人權保障,人工智慧倫理框架的構建必不可少。倫理框架為人工智慧的設計、研發、生產和利用提供原則指導和基本要求,確保其執行符合法律、安全和倫理等標準。《倫理指南》由AI HELP起草釋出,並不具備強制約束力,而歐盟鼓勵各利益攸關方積極執行《倫理指南》,促進AI倫理標準形成國際共識。總體而言,除了制定泛歐盟的倫理準則,歐盟希望人工智慧的倫理治理能夠在不同的層次得到保障。例如,成員國可以建立人工智慧倫理監測和監督機構,鼓勵企業在發展人工智慧的時候設立倫理委員會並制定倫理指南以便引導、約束其AI研發者及其研發應用活動。這意味著人工智慧的倫理治理不能停留在抽象原則的層面,而是需要融入不同主體、不同層次的實踐活動中,成為有生命的機制。

根據《倫理指南》,可信AI必須具備但不限於三個特徵:(1)合法性,即可信AI應尊重人的基本權利,符合現有法律的規定;(2)符合倫理,即可信AI應確保遵守倫理原則和價值觀,符合「倫理目的」;(3)穩健性,即從技術或是社會發展的角度看,AI系統應是穩健可靠的,因為AI系統即使符合倫理目的,如果缺乏可靠技術的支撐,其在無意中依舊可能給人類造成傷害。具體而言,可信AI的倫理框架包括以下三個層次:

(一)可信AI的根基

在國際人權法、歐盟憲章和相關條約規定的基本權利中,可作為AI發展要求的主要包括:人格尊嚴、人身自由、民主、正義和法律、平等無歧視和團結一致、公民合法權利等。許多公共、私人組織從基本權利中汲取靈感,為人工智慧系統制定倫理框架。例如,歐洲科學和新技術倫理小組(EGE)基於歐盟憲章和相關規定中的價值觀,提出了9項基本原則。《倫理指南》在借鑑絕大部分已有原則的基礎上,進一步歸納總結出符合社會發展要求的4項倫理原則,並將其作為可信AI的根基,為AI的開發、部署和使用提供指導。

這些原則包括:(1)尊重人類自主性原則。與AI互動的人類必須擁有充分且有效的自我決定的能力,AI系統應當遵循以人為本的理念,用於服務人類、增強人類的認知並提升人類的技能。(2)防止損害原則。AI系統不能給人類帶來負面影響,AI系統及其執行環境必須是安全的,AI技術必須是穩健且應確保不被惡意使用。(3)公平原則。AI系統的開發、部署和使用既要堅持實質公平又要保證程式公平,應確保利益和成本的平等分配、個人及群體免受歧視和偏見。此外,受AI及其運營者所做的決定影響的個體均有提出異議並尋求救濟的權利。(4)可解釋原則。AI系統的功能和目的必須保證公開透明,AI決策過程在可能的範圍內需要向受決策結果直接或間接影響的人解釋。

(二)可信AI的實現

在AI倫理原則的指導下,《倫理指南》提出AI系統的開發、部署和利用應滿足的7項關鍵要求。具體而言,在《倫理指南》中4項倫理原則作為頂層的倫理價值將對可信AI的研發與應用發揮最基本的指導作用,但7項關鍵要求則是可以落地的倫理要求。這意味著人工智慧倫理是一個從巨集觀的頂層價值到中觀的倫理要求再到微觀的技術實現的治理過程。

1、人類的能動性和監督

首先,AI應當有助於人類行使基本權利。因技術能力範圍所限AI存在損害基本權利可能性時,在AI系統開發前應當完成基本權利影響評估,並且應當通過建立外部反饋機制瞭解AI系統對基本權利的可能影響。其次,AI應當支援個體基於目標作出更明智的決定,個體自主性不應當受AI自動決策系統的影響。最後,建立適當的監督機制,例如「human-in-the-loop」(即在AI系統的每個決策週期都可人為干預),「human-on-the-loop」(即在AI系統設計週期進行人工干預),以及和「human-in-command」(監督AI的整體活動及影響並決定是否使用)。

2、技術穩健性和安全

一方面,要確保AI系統是準確、可靠且可被重複實驗的,提升AI系統決策的準確率,完善評估機制,及時減少系統錯誤預測帶來的意外風險。另一方面,嚴格保護AI系統,防止漏洞、黑客惡意攻擊;開發和測試安全措施,最大限度地減少意外後果和錯誤,在系統出現問題時有可執行的後備計劃。

3、隱私和資料治理

在AI系統整個生命週期內必須嚴格保護使用者隱私和資料,確保收集到的資訊不被非法利用。在剔除資料中錯誤、不準確和有偏見的成分的同時必須確保資料的完整性,記錄AI資料處理的全流程。加強資料訪問協議的管理,嚴格控制資料訪問和流動的條件。

4、透明性

應確保AI決策的資料集、過程和結果的可追溯性,保證AI的決策結果可被人類理解和追蹤。當AI系統決策結果對個體產生重大影響時,應就AI系統的決策過程進行適當且及時的解釋。提升使用者對於AI系統的整體理解,讓其明白與AI系統之間的互動活動,如實告知AI系統的精確度和侷限性。

5、多樣性、非歧視和公平

避免AI系統對弱勢和邊緣群體造成偏見和歧視,應以使用者為中心並允許任何人使用AI產品或接受服務。遵循通用設計原則和相關的可訪性標準,滿足最廣泛的使用者需求。同時,應當促多樣性,允許相關利益相關者參與到AI整個生命週期。

6、社會和環境福祉

鼓勵AI系統負擔起促進可持續發展和保護生態環境的責任,利用AI系統研究、解決全球關注問題。理想情況下,AI系統應該造福於當代和後代。因此AI系統的開發、利用和部署應當充分考慮其對環境、社會甚至民主政治的影響。

7、問責制

其一,應建立問責機制,落實AI系統開發、部署和使用全過程的責任主體。其二,建立AI系統的審計機制,實現對演算法、資料和設計過程評估。其三,識別、記錄並最小化AI系統對個人的潛在負面影響,當AI系統產生不公正結果時,及時採取適當的補救措施。

值得注意的是,不同的原則和要求由於涉及到不同利益和價值觀,互相間可能存在本質上的緊張關係,因此決策者需要根據實際情況作出權衡,同時保持對所做選擇的持續性記錄、評估和溝通。此外,《倫理指南》還提出了一些技術和非技術的方法來確保AI的開發、部署和使用滿足以上要求,如研究開發可解釋的AI技術(Explainable AI,簡稱XAI)、訓練監控模型、構建AI監督法律框架、建立健全相關行業準則、技術標準和認證標準、教育提升公眾倫理意識等。

(三)可信的AI的評估

《倫理指南》在前述7項關鍵要求的基礎上,還列出了一份可信AI的評估清單。評估清單主要適用於與人類發生互動活動的AI系統,旨在為具體落實7項關鍵要求提供指導,幫助公司或組織內不同層級如管理層、法務部門、研發部門、質量控制部門、HR、採購、日常運營等共同確保可信AI的實現。《倫理指南》指出,該清單的列舉評估事項並不總是詳盡無遺,可信AI的構建需要不斷完善AI要求並尋求解決問題的新方案,各利益攸關方應積極參與,確保AI系統在全生命週期內安全、穩健、合法且符合倫理地執行,並最終造福於人類。

可見,在歐盟看來,人工智慧倫理是一項系統性的工程,需要倫理規範和技術方案之間的耦合。其他國家和國際社會的人工智慧倫理構建可能多數還停留在抽象價值的提取和共識構建階段,但歐盟已經更進一步,開始探索搭建自上而下的人工智慧倫理治理框架。

人工智慧演算法治理的政策建議:

演算法責任與透明治理框架
《治理框架》是由歐洲議會未來與科學和技術小組(STOA)釋出的一份關於演算法透明和責任治理的系統性研究報告。報告在引用一系列現實案例的基礎上,闡明不公平演算法產生的原因及其可能導致的後果,以及在特定背景下實現演算法公平所存在的阻礙。在此基礎上,報告提出將演算法透明和責任治理作為解決演算法公平問題的工具,實現演算法公平是演算法治理的目的,同時強調「負責任研究和創新」(RRI)方法在促進實現演算法公平中的作用和意義。RRI的核心是在利益相關者的參與下,實現包容和負責任的創新。

該報告在分析演算法系統為社會、技術和監管帶來的挑戰的基礎上,為演算法透明度和問責制的治理提出系統的的政策建議。報告從技術治理的高層次視角出發,詳細論述各型別的治理選擇,最後回顧現有文獻中對演算法系統治理的具體建議。在廣泛審查和分析現有演算法系統治理建議的基礎上,報告提出了4個不同層面的政策建議。

(一)提升公眾的演算法素養

實現演算法問責的前提是演算法透明,演算法透明並非指讓公眾瞭解演算法的各個技術特徵。報告指出,對演算法功能的廣泛理解對實現演算法問責幾乎沒有作用,而簡短、標準化且涉及可能影響公眾決策或者提升公眾對演算法系統的整體理解的資訊內容的披露才更為有效。此外,調查性新聞報導和揭密對於揭發演算法的不當用途,實現演算法透明和問責也發揮著重要作用。例如,紐約時報曾經報導Uber公司通過一定演算法技術來標記和躲避城市的監管機構(此訊息由Uber前員工透露),此報導當即引發了媒體和社會的廣泛關注,監管部門也對該公司採取調查行動。除了發揮監督作用,新聞報導致力於用簡單易懂的語言提升社會公眾對演算法的理解,新聞調查還可刺激廣泛的社會對話和辯論,引發新的學術研究。例如,非盈利機構ProPublica的一篇關於一些美國法院使用的犯罪風險評估演算法系統COMPAS中「機器偏見」的報告即引發了一系列關於演算法公平的研究。

基於此,《治理框架》提出幾點關於提升公眾演算法意識的政策建議:(1)教育公眾理解關於演算法選擇、決策的核心概念;(2)標準化演算法的強制披露內容;(3)為進行「演算法問責」的新聞報導提供技術支援;(4)出於公共利益考慮允許揭祕人在違反服務條款或者侵犯智慧財產權情況下免於追究責任。

(二)公共部門建立演算法問責機制

當今,越來越多公共部門開始使用演算法系統以提高辦公效率、支撐複雜的辦公流程並輔助政策制定活動。若演算法存在缺陷,則可能對社會中弱勢群體造成不可估量的影響,因此公共部門格外需要建立完善的演算法透明和問責機制。其中一個可以考慮的治理機制是,借鑑資料保護法上的資料保護影響評估(DPIA)機制,建立演算法影響評估(Algorithmic impactassessments,即AIA)機制。此機制可以讓政策制定者瞭解演算法系統的使用場景,評估演算法預期用途並提出相關建議,幫助建立演算法問責機制。根據《治理框架》,AIA的流程主要包括:公佈公共部門對「演算法系統」的定義,公開披露演算法的目的、範圍、預期用途、相關政策或實踐,執行和釋出演算法系統的自我評估,公眾參與,公佈演算法評估結果,定期更新AIA等。

(三)完善監管機制和法律責任制度

一方面,對於各界廣泛呼籲但存在巨大爭議的演算法透明,歐盟從人工智慧技術自身的特徵出發提出了較為中肯的建議。演算法透明不是對演算法的每一個步驟、演算法的技術原理和實現細節進行解釋,簡單公開演算法系統的原始碼也不能提供有效的透明度,反倒可能威脅資料隱私或影響技術安全應用。更進一步,考慮到AI的技術特徵,理解AI系統整體是異常困難的,對理解AI作出的某個特定決策也收效甚微。所以,對於現代AI系統,通過解釋某個結果如何得出而實現透明將面臨巨大的技術挑戰,也會極大限制AI的應用;相反,在AI系統的行為和決策上實現有效透明將更可取,也能提供顯著的效益。例如,考慮到人工智慧的技術特徵,GDPR並沒有要求對特定自動化決策進行解釋,而僅要求提供關於內在邏輯的有意義的資訊,並解釋自動化決策的重要性和預想的後果。

另一方面,在人工智慧演算法監管方面,歐盟認為,對於大多數私營部門而言,其資源是有限的,且其演算法決策結果對社會公眾的影響相對有限,所以不應施加演算法影響評估等強監管。如果一味要求私營部門採取AIA,結果就是其負擔的財務和行政成本與演算法所帶來的風險將不成比例,這將阻礙私營部門的技術創新和技術採納。因此,對於低風險的演算法系統可以以法律責任去規制,允許私營部門以更嚴格的侵權責任換取演算法更低的透明度及AIA要求。根據《治理框架》,可以分層次建立相應的監管機制:對於可能引發嚴重或是不可逆後果的演算法決策系統可以考慮施加AIA要求;對於僅具有一般影響的演算法系統,則可要求系統操作者承擔較為嚴格的侵權責任,同時可以減輕其評估認證演算法系統、保證系統符合最佳標準的義務。同時可考慮建立專門的演算法監管機構,其職責包括進行演算法風險評估,調查涉嫌侵權人的演算法系統的使用情況,為其他監管機構提供關於演算法系統的建議,與標準制定組織、行業和民間社會協調確定相關標準和最佳實踐等。

(四)加強演算法治理的國際合作

演算法系統的管理和執行還需要跨境對話和協作。一國對演算法透明度和問責制的監管幹預很可能被解釋為保護主義或視為獲取外國商業機密的不當行為。因此,《治理框架》建議,應當建立一個永久性的全球演算法治理論壇(AGF),吸納與演算法技術相關的多方利益攸關者參與國際對話,交流政策及專業知識,討論和協調演算法治理的最佳實踐。

歐盟人工智慧倫理與治理的啟示

在過去二十多年的網際網路發展中,歐盟落後於美國和中國,法律政策方面的差異是其中的主要因素之一。正如筆者在《論網際網路創新與監管之關係——基於美歐日韓對比的視角》一文中的觀點,歐盟在平臺責任、隱私保護、網路版權等方面的制度規定都比美國更早和更嚴格,沒有給網際網路創新提供適宜的法律制度土壤。如今,步入智慧時代,無處不在的資料和演算法正在催生一種新型的人工智慧驅動的經濟和社會形式,歐盟在人工智慧領域依然落後於美國等國家。去年生效的《一般資料保護條例》(GDPR)對人工智慧發展應用的影響尤甚,諸多研究都表明GDPR阻礙了人工智慧、數字經濟等新技術、新事物在歐盟的發展,給企業經營增加了過重的負擔和不確定性。[8]

回到人工智慧領域,歐盟希望通過戰略、產業政策、倫理框架、治理機制、法律框架等制度構建來研發、應用、部署嵌入了倫理價值的人工智慧,以此引領國際舞臺。在這方面,歐盟的確有其獨特的優勢。但這樣的優勢能否最終轉化為歐盟在人工智慧領域的國際競爭力,卻值得深思。整體而言,歐盟的人工智慧倫理與治理探索,帶給我們三點啟發。

(一)探索倫理治理的技術路徑

顯然,面對人工智慧未來發展的倫理與社會影響,需要讓倫理成為人工智慧研究與發展的根本組成部分,加強人工智慧倫理研究和倫理治理機制的構建。就當前而言,人工智慧倫理治理的實現,更多需要依靠行業和技術的力量,而非訴諸立法和監管。因為技術和商業模式快速迭代,成文的立法和監管很難跟上技術發展步伐,可能帶來適得其反或者意想不到的效果,而標準、行業自律、倫理框架、最佳實踐、技術指南等更具彈性的治理方式將越來越重要,尤其是在技術發展早期。更進一步,正如在隱私和資料保護方面,經由設計的隱私(privacy by design,簡稱PbD)理念在過去十幾年獲得了強大的生命力,使得通過技術和設計保護個人隱私成為資料保護機制中不可或缺的組成部分,加密、匿名化、差分隱私等技術機制發揮著重要的作用。這樣的理念也可以移植到人工智慧領域,所以歐盟提出了「經由設計的倫理」(ethics by design或者ethical by design,簡稱EbD)。未來需要通過標準、技術指南、設計準則等方式來賦予「經由設計的倫理」理念以生命力,從而將倫理價值和要求轉化為人工智慧產品和服務設計中的構成要素,將價值植入技術。

(二)採取多利益相關方協同治理的模式

當前,人工智慧與經濟、社會以異乎尋常的速度整合和相互構建,其高度的專業化、技術化和複雜性使得圈外人很難對其中的風險和不確定性有準確的判斷和認知。因此,一方面需要通過多利益相關方協同參與的方式,讓監管機構、決策者、學術界、行業、社會公共機構、專家、從業者、公眾等都能參與到新技術治理中來,避免決策者和從業者脫節。另一方面需要通過科技倫理教育宣傳增進科研人員和社會公眾在倫理上的自覺,使其不僅僅考慮狹隘的經濟利益,而且對技術發展應用的潛在影響及其防範進行反思和預警性思考(precautionary thinking),才有可能通過廣泛社會參與和跨學科研究的方式來實現對前沿技術的良好治理。所以,歐盟認為對於人工智慧的倫理治理,需要不同主體在不同層次的保障措施,因此需要政府、行業、公眾等主體在各自的層級建立保障措施。

(三)加強人工智慧倫理與治理方面的國際合作

人工智慧的發展與資料流動、資料經濟、數字經濟、網路安全等密切相關,而且人工智慧的研發應用具有跨國界、國際分工等特徵,需要在倫理與治理方面加強國際協作和協調。例如,2019年5月22日,OECD成員國批准了人工智慧原則即《負責任地管理可信賴的AI的原則》,該倫理原則總共有五項,包括包容性增長、可持續發展和福祉,以人為本的價值和公平,透明性和可解釋,穩健性和安全可靠,以及責任。[9]2019年6月9日,G20批准了以人為本的AI原則,主要內容來源於OECD人工智慧原則。這是首個由各國政府簽署的AI原則,有望成為今後的國際標準,旨在在以人為本的發展理念之下,以兼具實用性和靈活性的標準和敏捷靈活的治理方式推動人工智慧發展,共同促進AI知識的共享和可信AI的構建。[10]可見,以人為本的人工智慧發展理念正在獲得國際社會的共識,需要在此理念的引領下,加深國際對話和交流,在國際層面實現相協調的共同人工智慧倫理與治理框架,促進可信的、符合倫理道德的人工智慧的研發與應用,防範人工智慧發展應用可能帶來的國際風險和其他風險,確保科技向善和人工智慧造福人類。

參考文獻:


[1]http://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html?redirect

[2]https://www.eesc.europa.eu/en/our-work/opinions-information-reports/opinions/artificial-intelligence

[3]https://www.consilium.europa.eu/media/21620/19-euco-final-conclusions-en.pdf

[4]https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe

[5]https://www.europarl.europa.eu/doceo/document/A-8-2019-0019_EN.html#title2

[6]https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

[7]http://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2019)624262

[8]https://itif.org/publications/2019/06/17/what-evidence-shows-about-impact-gdpr-after-one-year

[9] https://www.oecd.org/going-digital/ai/principles/

[10]https://g20trade-digital.go.jp/dl/Ministerial_Statement_on_Trade_and_Digital_Economy.pdf

來自: 騰訊研究院