人工智慧演進:道德可以被程式設計嗎?

周建丁發表於2016-07-12

原文:The Evolution of AI: Can Morality be Programmed?
翻譯:@ GawainGao 審校:趙屹華
責編:周建丁(zhoujd@csdn.net)

人工智慧的最新進展明確表明,我們的電腦需要有一個道德準則。不同意?想想看:一輛車開車上路時,一個騎自行車的孩子在它的前面突然轉了個彎。此時車子能轉彎進入逆行車道,撞上另一輛已經在那裡的汽車?或者可以轉彎偏離道路,撞上一棵樹?還是繼續向前,撞上那個騎車的孩子?

每一種解決方案都會產生一個問題:這可能會導致死亡。

這是一個不幸的情況,但是人們每天都要面對這樣的情況,如果有一個正在受控的自動駕駛汽車,它需要能夠在這樣的情況下作出選擇。這意味著,我們需要弄清楚如何在我們的電腦裡編寫道德準則。

杜克大學電腦科學系教授Vincent Conitzer最近收到未來生命研究所(Future of Life Institute,FLI)的撥款,用以研究如何讓一個高階人工智慧作出道德判斷,並據此採取行動。

建立道德準則

乍看之下,我們的目標似乎很簡單—只要建立一個符合道德責任行為的AI即可;然而,它遠遠比原先設想的要複雜得多,因為在建立這類AI的過程中,會有數量驚人的因素左右其實現。就如Conitzer的專案中概述的那樣,“道德判斷會受到權利(如隱私)、角色(如家庭)、過去的行為(如許諾)、動機和意圖,以及其他道德相關特徵的影響。這些不同的因素尚未在AI系統中建立”。

這就是Conitzer現在嘗試在做的事。

在接受Futurism近期的採訪中,Contizer解釋說,雖然公眾可能會關心如何確保流氓AI最終不會泯滅人性,然而就目前(以及接下來一段很長的時間)而言,這種威脅並不存在。因此他的團隊並不關心如何使AI無私、崇拜人性,以預防造成全球性的機器人大災難。相反,他們會在一個更基本的層面上,把重點放在如何確保人工智慧系統能夠作出艱難的、更接近道德標準的選擇,像人類的日常決策一樣。

那麼,該怎樣才能讓AI能夠作出一個艱難的道德決定呢?

Contizer解釋說,為了實現這個目標,他們的團隊將按照以下兩條線開展:讓人們作出道德選擇,從中發現出模式,然後尋求如何將這些模式置入人工智慧。他解釋說,“我們目前所做的實際上就是讓人們作出道德決定,或者是讓人們說明在特定的情況下會作出何種決定,然後我們讓機器學著去嘗試定義何為一般的模式並確定在某種程度內我們可以重現這類決定。”

總之,研究團隊正試圖找出我們作出道德選擇的模式繼而將這類模式轉換成AI系統可以識別的模式。Contizer指出,這本質上都是關於預測人類在特定情況下會作出何種決定的,“如果我們能夠變得非常擅長預測人們在這類道德情況下會作出什麼樣的決定,那麼,我們可以以計算機程式的形式自行作出這些決定。”

然而,這裡面存在一個主要的問題,沒錯,道德是不客觀的 - 它既不是永恆的,也不具有普遍性。

Contizer通過過去幾十年的發展很好的闡述了這個問題,“如果我們在一百年前做同樣的道德測試,我們會從人們的決定中發現更多的種族歧視、性別歧視,以及各種從現在看來並不是‘好’的事情。同樣,現在,也許我們的道德發展並沒有走到頂點,百餘年後人們可能會覺得一些我們現在做的事情是完全不道德的,例如像我們對待動物的方式。因此,不管怎樣,都會有偏見橫亙在當前道德水平的發展過程中。”

當然,上述提到了很多關於道德是多麼複雜的問題。“純粹的利他主義,在博弈論中是很容易解決的,但也許你會覺得別人虧欠於你。這是在博弈論文獻中找不到的理論,這樣的東西,我們也想了很多,你怎麼能夠使在博弈論中被稱為‘解決方案概念’的理論變得有意義?你又該如何計算這些東西?”

為了解決這些問題,並幫助正確找出如何把道德功能編寫進人工智慧之中,該團隊正在結合來自電腦科學、哲學和心理學的很多方法。“概括地說,這就是我們的專案所要做的事。”Contizer說到。

但對於那些有知覺的人工智慧呢?我們什麼時候需要開始擔心他們並討論如何約束他們的行為呢?

類人智慧

Contizer表示,類人智慧(human-like artificial intelligence)在短時間內還不會出現(所以至少在未來數年不會出現像終結者那樣的大災難……) 。

“最近,已經出現了一些向類人智慧系統接近的進展,我認為這裡麵包括了很多令人驚訝的進步……但我覺得一個‘真正的AI’,應該是相當靈活的,能夠抽象的,並且可以做所有人類可以輕易完成的事情,我認為我們離真正的AI還相當遙遠。” Contizer說。

誠然,我們可以設定系統做很多人類可以做的很好的事情,但也有一些過於複雜的事情很難轉換成計算機可以識別和學習(這是所有終極AI的基礎)的模式。

“早期的人工智慧研究,最開始幾十年人工智慧研究的,是為智慧確定真正基準的一個事實,如能很好地下國際象棋,這對於電腦來說相當容易。編寫並建立一個國際象棋對弈程式是不容易的,但它是可行的。”

事實上,在今天,計算機在許多比賽中有能力擊敗世界上最好的選手,例如國際象棋和AlphaGo。

但是Conitzer澄清,事實證明,這類比賽並不是測量類人類智慧的一個完美方法。或者至少,在人類思維上,用這種方法還有很多方面無法測量出來,“同時,我們瞭解到,某些對於人類非常簡單的問題,實際上對於電腦來說相當困難,或者程式設計讓電腦做某些事情(很困難)。例如,在茫茫人海中找到你的祖母。你可以很容易做到這一點,但是要編寫一個電腦程式讓它同樣做好這件事真的非常的困難。”

從人工智慧研究的初期,我們就能夠做到讓計算機識別和鑑定一些指定的圖片。但是,總體來說,要編寫一個可以做人類能做的所有事情的系統,就非常困難了,這就是為什麼我們離 “真正的人工智慧”還有很長的一段路要走。

然而,Conitzer聲稱,現在是時候開始考慮管理這種智慧所適用的規則了。“這可能還有點遙遠,但對電腦科學家來說,這可能意味著短短几十年的秩序,提早一點去考慮是很有必要的”,他指出,雖然目前還沒有任何類人機器人出現,但我們的智慧系統已經能作出道德選擇,並且這種選擇有可能拯救或結束生命。

“很多時候,他們做的這些決定會影響到別人,我們可能需要做一些通常被認為含有一些道德負擔的決定。而一個標準的例子就是一個自動駕駛汽車必須決定是直行撞上前面的車還是改變方向,這可能對一些行人造成傷害。你如何權衡利弊?我認為這就是我們可以有所進展的地方。這並不需要超高智商的人工智慧,這隻需要一個可以通過各種方式權衡方案的程式即可。”

當然,知道作出什麼決定,首先需要知道究竟什麼樣的道德準則才是正確的(或至少有一個公平的決定)。只有這樣,我們才能開始把它程式設計,這就是Contizer和他的團隊希望做的事。


CCAI 2016中國人工智慧大會將於8月26-27日在京舉行,AAAI主席,多位院士,MIT、微軟、大疆、百度、滴滴專家領銜全球技術領袖和產業先鋒打造國內人工智慧前沿平臺,6+重磅大主題報告,4大專題論壇,1000+高質量參會嘉賓,探討人機互動、機器學習、模式識別及產業實戰。門票限時六折優惠中

圖片描述

相關文章