日不落帝國下一個統領全球的領域:人工智慧的倫理道德? | 附報告

量子位發表於2018-04-18
伊瓢 發自 凹非寺
量子位 出品 | 公眾號 QbitAI

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

從美國國會聽證會出來的祖克伯不僅鬆了口氣,還開心的發現自家的股票漲了。

而當這樣一個訊息傳到大西洋彼岸的英國,上議院的老爺們不僅為AI所造成的倫理問題困擾,還中二的發現了自己在人工智慧浪潮中的歷史使命:不是寫論文或者搞演算法,而是引領全球發展人工智慧倫理道德。

英國上議院昨天出了一份長達183頁的報告《人工智慧在英國:充分準備、意願積極、能力爆棚?》,不僅說了人工智慧在英國的發展,更聚焦於倫理道德問題——那些AI可能為人類帶來的風險。
640?wx_fmt=png&wxfrom=5&wx_lazy=1

英國上議院人工智慧特別委員會主席Clement-Jones勳爵:“在人工智慧的發展和應用中,倫理必須佔據中心地位。英國應當抓住機會積極地推進AI與公眾利益的結合,並領導國際社會在人工智慧倫理領域的發展,而不是被動承擔那些AI可能造成的消極後果。”

向人工智慧審問:AI,你做的決定,真的沒有偏見和歧視嗎?

這份報告指出,AI研究者應當是不同性別,來自不同種族,AI學術界不應當存在對於研究人員的任何歧視。當然,當今學界諸多AI大V們已經向我們證明了這一點,無論男性女性、無論何種膚色種族,學術界似乎比大眾更為平等。

除了種族性別這些出身因素,更為重要的是,研究者應當保證他們的產出符合人類道德:不侵犯隱私、不傷害人類、不左右政局,尤其在AI武器方面應當更為謹慎。

AI研究人員的道德水平可能讓人放心,但是能夠獨立做出決定的AI本身呢?該報告呼籲英國政府採取緊急措施來“建立權威的稽核測試工具與資料集合,以確保這些資料代表不同的種族,確保AI在作出決定時不會出現含有偏見、歧視的決定”,建立機制,審問AI,以保證AI們符合人類的倫理道德。

五大原則:為人類利益服務,絕不傷害人類

在倫理道德方面,英國上議院的這份報告起草了綱領性的五大原則,包括:

  • 發展人工智慧是為了人類的共同利益;

  • 人工智慧應當保證公平,並且讓人容易理解;

  • 人工智慧不應當用來侵犯人們的隱私;

  • 所有公民都有權利接受教育,使他們能在精神、情感與經濟上和人工智慧一起繁榮發展;

  • 人工智慧不應被賦予傷害、破壞或欺騙人類的自主能力。

委員會主席Clement-Jones勳爵認為,人工智慧並非沒有風險,而這些原則的制定有助於減輕風險。如果有方法能防止人工智慧技術被濫用,公眾則會更加信任AI,更好地應用這項技術。

人工智慧教育:讓AI世代的孩子們學會AI,讓前AI世代的成人們找到新飯碗

不得不承認,無論是哪種技術進步,都會消滅掉一大批工作崗位。此前被“消滅”的多是體力勞動工種,體力勞動者們總能在新的技術時代找到新的工作,流水線工人變成了外賣配送員,手工匠人成了O2O上門小哥。

可是,天生帶著“智慧”兩個字的人工智慧技術,天然的威脅著從事腦力勞動的所謂“中產”們。腦力勞動者在工作被AI代替後,也能如此輕易的轉行麼?

這份報告提出的觀點是:AI會消滅舊的工作崗位,也會創造新的工作崗位。在新舊轉換之際,政府必須做好職業再教育工作,以保證那些被搶了工作的人們找到新的飯碗。翻譯們失業了可以去做人工智慧語音識別訓練,安檢員失業了可以去搞AI安防嘛,總要不斷學習才有新的飯碗。是不是覺得自己當初沒好好學英語也不太遺憾了?
640?wx_fmt=jpeg

而對AI新世代的孩子們來說,伴隨著AI成長似乎是一種必然。報告指出,“在針對兒童的早期教育中,孩子們需要充分地學習和使用AI。兒童AI課程不僅應當包含人工智慧技術使用,也應該包括人工智慧的倫理學習。”

大概可以類比為當今的網際網路技術,不僅僅應當學會如何操作使用社交軟體,更應當學會網際網路時代的倫理——網路社交禮儀,比如“有事直說,別問在麼”,或是“不要隨便呵呵”。

除此之外,這份報告還包含了資料與透明化方面的建議,比如對大公司壟斷資料加以限制,希望人工智慧決策透明,呼籲政策立法以規範人工智慧發展。

報告英文原文連結(網頁版):
https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/10002.htm
(可愛的英國上議院把日期錯標為了2017年,歡迎不怕長的讀者點開。)

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話介面,回覆“招聘”兩個字。

640?wx_fmt=jpeg

量子位 QbitAI · 頭條號簽約作者

վ'ᴗ' ի 追蹤AI技術和產品新動態


相關文章