無人駕駛汽車背後的倫理困境

行者武松發表於2018-03-06

為什麼Google的無人駕駛汽車不能在追尾即將發生時進行變道而避免事故發生呢?這背後有一些道德上和法律上的問題需要解決。

儘管Google的無人駕駛汽車已經測試多年,就在7月1日的一次測試中,一輛經過Google改裝的雷克薩斯SUV在加州山景城遭到追尾,車上的3名Google員工受了輕微的皮外傷。然而無一例外,這些事故的原因都不是Google無人駕駛汽車自己的問題,至少Google一直堅持這麼說;畢竟這些事故中有很多都是Google的無人駕駛汽車被追尾導致的。這次無人駕駛汽車事件再次將人工智慧牽涉的倫理問題推到風口浪尖。

圖一 無人駕駛汽車背後的倫理困境

那麼為什麼Google的無人駕駛汽車不能在追尾即將發生時進行變道而避免事故發生呢?

事實上,他們可以辦到這一點,但是在這麼做之前,他們還有一些道德上和法律上的問題需要解決。

汽車防撞的技術一直都存在,不管對方是另一輛汽車,還是一個行人或者其它物體,裝備這項技術的汽車應該都能對可能發生的撞擊採取措施而進行規避。到目前為止,這項技術都還只用到防止前方撞擊上,但理論上,這些技術也可以用在防止追尾上,但首先,還需要考慮以下的問題:

可能的事故場景

想象一下你的自動駕駛汽車停在路口等待著你前面的行人過馬路,這時候,你的車子發現後面有另一輛卡車衝過來了,看起來無可避免地要發生追尾事故了,但是你坐在前排座位上,這樣的事故只會給你帶來一點小傷——至少不會致命。如果你的汽車具備規避程式,那麼你的汽車應該怎麼做呢?如果你的車子可以立馬躲開,移到旁邊的車道去,那麼這輛卡車就會衝進路口,碾壓行人。

那麼這樣的自動駕駛程式是合情合理的嗎?在大部分的追尾事故中,這樣的規避也許無可厚非,但是在類似於這種情況的特殊情況(其實並不罕見)下,讓自己受一點小傷還是拱手送上無辜行人的性命,選擇顯而易見。

因為,這個時候可以認為你(或你的車)應該對被無辜碾壓的行人負責,因為正是你(或你的車)的規避動作導致了這一事故的發生。由此帶來的道德和法律後果就需要你(或車輛負責人)承擔。

這樣的狀況可能在今天的汽車駕駛中也會出現,在發生事故時,你可能******地保護自己而給別人造成傷害。看起來和無人駕駛汽車造成的後果一樣,但是人類不是全然理性的生物,在遇到緊急狀況時並不能做出理智的決定——人類會感到驚慌。然而無人駕駛的機器就不一樣了,它的決定都來自於經過了深思熟慮之後的程式和演算法,由此帶來的後果就不太容易讓人原諒。而且如果是程式設計師故意設定這樣的程式,那麼甚至可以將這種事故定義為“蓄意謀殺”,即使是考慮不周,也可能被定義為“重大過失”。

不管哪種可能,對程式設計師和開發者來說都是難逃法律干係的。當科技公司用機器來取代人做決定的時候,也就給自己帶來了新的責任和義務。

道德困境

但是別急,這樣的問題難道在前端碰撞時就不存在嗎?後端碰撞有什麼不同?

其中最大的不同之處在於,追尾發生的時候,責任通常是在後車——通常是因為後車跟車太緊,沒法對前車的動作做出及時的反應;或者後車駕駛員分心了。所以對於無人駕駛汽車而言,被追尾是沒有法律責任的。而如果無人駕駛汽車在行進過程中發現了前方車輛,那麼它就有責任進行規避,避免可能發生的事故。

在無人駕駛引起的倫理問題上,這兩種情況也是不同的。這個問題有一個被稱為“電車難題”的通用版本,由哲學家Phillipa Foot和Judith Jarvis Thomson提出,在這種情況下,無人駕駛汽車做出的規避選擇是完全合法的:它躲開了可能直接造成的傷害,也沒有給其他人帶來直接的傷害,但是這種合法卻是不道德的,所以也就是說,僅僅讓無人駕駛汽車的程式滿足法律規範是不夠的。

圖二 無人駕駛汽車背後的倫理困境

無人駕駛技術是人工智慧領域的一種,而人工智慧研究與生俱來具有“哲學特質”。有學者認為,不同人工智慧專家推出的人工智慧產品背後有不同哲學預設和思路,由兩個不同程式設計思維的機器預測同一件事就會得出不一樣的結論;同樣,也不能指望通過造一臺機器解決所有問題,因為造機器的人本身是有限性的,選擇也必須有所偏重。如何做到規避事故而又減少對他人未知的傷害,與之同時,又要符合道德和法律,這是對無人駕駛技術乃至人工智慧領域的挑戰。要好好的解決這個問題,也許需要倫理學家與人工智慧學家好好溝通,人工智慧涉及的問題需要與業界程式設計思路和哲學思辨相結合。

原文釋出時間:2015-07-20 21:30
本文作者:maker
本文來自雲棲社群合作伙伴鎂客網,瞭解相關資訊可以關注鎂客網。


相關文章