《人工智慧北京共識》釋出:研發設計上要合乎倫理

dicksonjyl560101發表於2019-05-26


http://www.bjnews.com.cn/news/2019/05/25/583372.html


使用方面要避免誤用和濫用,應確保利益相關者對其權益所受影響有充分的知情與同意。

新京報快訊(記者 張璐)5月25日,北京智源人工智慧研究院聯合北京大學、清華大學、中國科學院自動化研究所等單位釋出《人工智慧北京共識》,提出了各個參與方應該遵循的有益於人類命運共同體構建和社會發展的15條原則。其中研發方面,要服從人類的整體利益,設計上要合乎倫理。使用方面要避免誤用和濫用,應確保利益相關者對其權益所受影響有充分的知情與同意。

 

《人工智慧北京共識》釋出:研發設計上要合乎倫理

5月25日,北京智源人工智慧研究院聯合北京大學、清華大學、中國科學院自動化研究所等單位釋出《人工智慧北京共識》。攝影/新京報記者 吳寧


使用上避免誤用和濫用

 

《人工智慧北京共識》由北京智源人工智慧研究院聯合北京大學、清華大學、中國科學院自動化研究所、中國科學院計算技術研究所、新一代人工智慧產業技術創新戰略聯盟等高校、科研院所和產業聯盟共同釋出。

 

《人工智慧北京共識》針對人工智慧的研發、使用、治理三方面,提出了各個參與方應該遵循的有益於人類命運共同體構建和社會發展的15條原則。其中,研發方面,提倡要有益於增進社會與生態的福祉,服從人類的整體利益,設計上要合乎倫理,體現出多樣性與包容性,儘可能地惠及更多人,要對潛在倫理風險與隱患負責,提升技術水平控制各種風險,並最大範圍共享人工智慧發展成果。

 

使用方面,提倡善用和慎用,避免誤用和濫用,以最大化人工智慧技術帶來的益處、最小化其風險,應確保利益相關者對其權益所受影響有充分的知情與同意,並能夠通過教育與培訓適應人工智慧發展帶來的影響。

 

在治理方面,對人工智慧部分替代人類工作保持包容和謹慎態度,鼓勵探索更能發揮人類優勢和特點的新工作,廣泛開展國際合作,共享人工智慧治理經驗。人工智慧的準則與治理措施應做到適應和適度,並開展長遠戰略設計,以確保未來人工智慧始終保持向對社會有益的方向發展。

 

人工智慧倫理與規範是未來智慧社會的發展基石,已經引起了各國政府和學術界、企業界等的廣泛關注。歐盟、英國、日本等國際組織和國家,均釋出了人工智慧的倫理準則。《人工智慧北京共識》強調促進人工智慧相關準則的“落地”,為未來打造“負責任的、有益的”人工智慧。這一共識的釋出,為規範和引領人工智慧健康發展提供了“北京方案”,對於實現人工智慧“自律”“善治”“有序”具有重要意義。

 

人工智慧倫理與安全研究中心成立

 

另外,為降低人工智慧發展過程中可能存在的技術風險和倫理隱患,北京智源人工智慧研究院專門成立人工智慧倫理與安全研究中心,中國科學院自動化研究所曾毅研究員任研究中心主任。

 

據曾毅介紹,該研究中心將圍繞人工智慧倫理與安全的理論探索、演算法模型、系統平臺、行業應用等開展一系列研究,目前主要包括四大方面:一是低風險機器學習模型與平臺的構建,建立機器學習模型安全性的評估體系,並結合具體領域進行驗證。“人工智慧的發展過程中已有一些問題,比如一張飛機的圖片,如果改變其中一個畫素,人不會對感知結果有變化,但機器可能會顛覆認知,認為那是一隻狗,說明現在的機器學習演算法的自適應性還不能應對實時變化的環境和巨大噪聲。”

 

二是開展符合人類倫理道德的智慧自主學習模型研究,實現人工智慧行為與人類價值觀的校準,並在模擬環境與真實場景中進行驗證。三是建設資料安全示範應用系統,建立資料基礎設施、資料分級、許可權控制、資料審計,最大限度防止資料洩密,降低風險,探索允許使用者撤銷個人資料授權的機制及計算平臺。四是構建人工智慧風險與安全綜合沙盒平臺,建設自動檢測平臺,針對資料與演算法的安全性、公平性、可追溯性、風險型別、影響程度與影響範圍等方面,對人工智慧產品及應用進行風險與安全綜合檢測與評估,引導行業健康發展。

 

今後,人工智慧倫理與安全研究中心將著力在演算法安全評估、安全模型構建、AI綜合沙盒建設等方面儘快取得一系列創新性成果,為降低人工智慧的風險和倫理隱患提供技術服務,促進人工智慧行業的良性健康發展。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2645572/,如需轉載,請註明出處,否則將追究法律責任。

相關文章