人工智慧開發的道德邊界在哪裡? | CNCC 2019

AIBigbull2050發表於2019-10-28

10 月 17 日至 19 日,由 CCF 主辦、蘇州工業園區管委會、蘇州大學承辦的 CNCC 2019 在蘇州成功舉辦。今年大會以「智慧+引領社會發展」為主題,選址蘇州金雞湖國際會議中心召開。雷鋒網 AI 科技評論將會作為戰略合作媒體進行全程跟蹤報導。除了 15 場特邀報告外,今年 CNCC 的 79 場技術論壇作為會議的另一大重要組成部分,也是參會者重點關注的內容。其中「人工智慧開發的道德邊界在哪裡?」技術論壇應該是所有論壇當中“戰火”最濃的一個,數十位各領域專家齊聚一堂,針對AI倫理問題激烈探討了整個下午。

“不講title,激烈思辨”是YOCSEF的特性。YOCSEF,全稱為“中國計算機學會青年計算機科技論壇”,它是一個重在以思辨的方式討論計算機相關產學研等相關問題的論壇。YOCSEF的規矩是,任何參與這個論壇的人都可以發言,而且發言中不講title,所有人直呼其名,平等發聲,因此每次YOCSEF舉辦活動都會“戰火瀰漫”,碰撞出智慧的火花。 

本次論壇主題為討論「人工智慧開發的道德邊界」問題,匯聚了包括從事電腦科學、人工智慧、哲學、倫理學、法律等行業的專業人士。各位專家就相應論題,分別從各自專業角度對人工智慧倫理問題做了深入探討。


一、AI 倫理的邊界

近年來隨著人工智慧技術不斷在各行各業中得到廣泛應用,AI對人類社會的影響可謂是方方面面。例如最近較為火爆的換臉技術產生的資料安全問題、大資料產生的“殺熟”問題、自動駕駛的安全責任問題、人臉識別產生的隱私問題等。 

在這諸多問題中,哪些是能做的?哪些是不能做的?以及我們能做到什麼程度?這對我們人類來說都是不小的挑戰,因為這是我們人類數百萬來所面臨的全新問題。對這些問題的回答就是為AI倫理劃定一個不可逾越的邊界。

人工智慧開發的道德邊界在哪裡? | CNCC 2019

北京大學鄧小鐵教授 

北京大學鄧小鐵教授在引導發言中提出,任何一項新技術的興起都會引發一系列的爭議,AI也同樣不例外。那麼當AI技術的應用在人類社會中引發倫理風險時,如何界定AI與人的邊界、如何與AI定契約至關重要。他提出AI倫理邊界的劃分,將不再像以往的倫理道德那樣侷限在人與人之間,現在則多出了一些維度,還涉及到人與AI、AI與AI之間的倫理邊界問題。這對我們來說是全新的思考領域。他同時還指出,我們在與AI制定契約時,需要遵循三大最基本的原則:可執行、可驗證和可執法。作為引導發言,鄧小鐵教授還提出了在與AI互動過程中存在的四個問題:

  • Code is law。如果程式碼就是王道,那麼我們應該建立怎樣一種程式來監管程式設計人員呢?

  • 誰能代表AI定契約?是AI的製造者,還是AI自身?

  • AI倫理設計的不可能三角。在AI涉及倫理時,人類的機制如何設計、AI如何執行、市場如何接受?

  • 能否允許AI來製造AI?這個時候人類是否還有能力對AI實施管理和監測?

但緊接著一位來自中南大學的教授便指出鄧教授的思考中存在一個漏洞,即事實上我們整個學界對“智慧”這個詞是什麼一直並沒有搞清楚,因此也不可能搞清楚人工智慧是什麼,只有當我們真正弄清“智慧”的概念,知道了智慧和人類的侷限分別是什麼,我們才有可能去討論AI和人類的倫理問題,或者權利和義務問題。在辯論中,幾位哲學領域或法律界的人士分別指出了AI倫理邊界的以下幾個特點:

倫理的時代屬性。北京大學副教授吳天嶽指出,任何倫理道德都是有時代烙印的,因此儘管目前已經有諸多原則,但我們還需要有歷史意識和前瞻意識,以避免我們自己的道德偏見阻礙了未來人類的發展。

道德的邊界應該是動態的。天津理工大學羅訓教授認為任何治理原則都是不可能是一旦制定永不改變,因為倫理永遠在隨著時代和地域而變化,因此關於AI倫理應當是動態的,不應當去靜態地刻畫。

AI倫理中人的屬性不可忽視。現有的AI仍然不是一個道德主體,所以目前所討論的道德邊界主要還是針對人類行為邊界的界定。



二、人工智慧倫理原則

中科院自動化所研究員曾毅作為第二個引導發言者,介紹了當前國內外在人工智慧原則上的進展,並針對各國人工智慧倫理原則進行了詳細分析。

人工智慧開發的道德邊界在哪裡? | CNCC 2019

中科院自動化所研究員曾毅


據曾毅研究員介紹,目前全世界範圍內已經發布的人工智慧倫理原則至少有53個,但這些原則沒有一個可以覆蓋當前人工智慧技術所帶來的所有問題。以比較全面的《人工智慧北京共識》為例,對於“致命武器”、“公平”等並沒有涵蓋,原因則在於釋出者的立場和視角不同,面對的社會問題也不同。

當然,儘管目前已經有如此多的AI倫理原則,甚至包括一些企業(例如谷歌、微軟等)都制定了約束自身的倫理原則,但大多數倫理原則並沒有得到很好的執行,或者可以說至今為止沒有一家企業不會觸犯原則。例如尊重隱私這條,當使用者要求刪除資料時,雖然資料本身可以刪除,但由於當前AI技術的限制,已經訓練的模型仍然包含原有資料訓練的結果,這種痕跡很難在機器學習模型中得以抹除。

曾毅還指出當前AI倫理原則所面臨的一個問題,即當前人工智慧主要的目標還仍然是推動經濟發展,而卻沒有對“AI對社會及生態影響”給予足夠的重視。因此他提出,人工智慧倫理的問題,並不僅僅是有多少領域的專家參與這個問題的討論,更重要的是要讓足夠多的人重視這個問題,並參與其中。

人工智慧開發的道德邊界在哪裡? | CNCC 2019 北京大學黃鐵軍教授

針對AI倫理原則(甚至未來可能的法律),一位與會的學者提出,如何才能做到技術監管不會限制了人工智慧的發展。北京大學黃鐵軍教授從更為廣闊的角度回答了這個問題。我們作為人類,思考AI倫理不可避免地會站在人類視角,秉持以人為中心的觀念。黃鐵軍教授指出,目前我們所指的人工智慧事實上是嵌入在人類社會的一種形態,人工智慧開發遵循人類整體基本的道德共識。但機器智慧超越人類智慧,這是一個未來進化的趨勢。科技創新和發展不應被人類自身的侷限性而限制,對人工智慧的發展我們應持有一個更開放的心態來對待。



三、AI 倫理監管

面對AI的倫理原則,一項很重要的事情便是,如何確保人類(個人或組織)、AI遵守相應的倫理原則?

人工智慧開發的道德邊界在哪裡? | CNCC 2019

北京大學副教授吳天嶽

吳天嶽教授認為,針對AI開發者,職業道德和職業倫理非常重要。技術作為一種手段,它服務於某種特定目的,因此為了防止人為的AI作惡,必須要強化AI開發者的倫理意識,從源頭來遏制AI技術所帶來的風險,而不能僅僅是在產品出來之後進行監管。這包括幾個方面,首先是演算法層面要做到可解釋性、透明性;其次資料方面要確保均衡性和非歧視性;作為工具,要對演算法進行專屬測試。吳天嶽教授強調,作為AI開發者必須要意識到,AI技術的實現是為了一系列人類核心道德價值服務,而不僅僅是為資本和權利服務。他舉了2018年穀歌全體員工署名反對谷歌與美國軍方合作的例子。

另一方面,除了自我約束外,吳天嶽教授認為還需要外部監管。這便需要設定所謂“倫理委員會”。目前各大企業紛紛宣佈成立內部的倫理委員會或類似職能組織進行監管。但針對“倫理委員會”是否真正能夠起到作用不同學者抱有不同的看法。例如前面我們提到,目前幾乎沒有一家公司能夠真正按照自己的倫理原則行事,或多或少都會觸犯。曾毅指出,事實上一家公司能夠真正做到所有原則中的80%已經很不錯了。平安集團首席科學家肖京強調,“外部監管在制定一系列約束的同事,若能為企業提供更好地幫組,引導企業如何在保證‘活下去’的基本要求下,合理地進行AI技術開發,就可以協同共贏”。

立法是劃清紅線的手段。但其中也存在諸多問題,1)嚴格的法律是否限制了人工智慧的發展? 2)法律應該在發展的何種階段介入?舉例來講,目前我國在資料隱私保護方面的法律約束,相對於西方沒有那麼嚴格,這也成為我國能夠在人工智慧時代迅速佔領高位的一個重要因素。一旦我們針對資料隱私做出嚴格的限制,可以想象必將極大地約束技術的發展。 


四、科技向善

科技是一種能力,向善是一種選擇。科技的發展必須要服務於人類社會的進步與發展,才能成為科技的進步。以核能為例,它可以用來製造yuanzidan  ,但也可以用來作為核能發電,只有當將這種力量用來為人類整體服務時,它才能夠被稱為科技的進步。

人工智慧開發的道德邊界在哪裡? | CNCC 2019 騰訊公司副總裁王巨宏

騰訊公司副總裁王巨宏指出,在過去二十年裡,整個世界(特別是中國)經歷了PC網際網路時代、移動網際網路時代,這在極大程度上顛覆了整個社會,而下一輪以AI、大資料、生命科學等為代表的科技浪潮正在形成、疊加,逐步構建成新的數字時代。作為科技公司,不僅僅是技術發展的推動者、科技時代的受益者,更重要的則是要有能力和義務去面對科技所帶來的社會問題,用科技去解決社會問題,創造更多有益的社會價值。例如騰訊在人工智慧的開發中提出並倡導“四可”理念(可知、可控、可用、可靠),並從技術和實踐的層面去踐行“科技向善”的理念。



相關文章:















來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2661587/,如需轉載,請註明出處,否則將追究法律責任。

相關文章