一輛剎車失靈的有軌電車正在急速行駛,前面的鐵軌上綁著一群人, 如果任由電車行駛, 那群人必將罹難。
這時你站在鐵軌正上方的天橋上, 你前面有一個胖子, 你可以將他推下天橋以阻擋住電車來營救那群人,不過這個胖子會遇難。
當然,你考慮過自己跳下去,但由於你自己的體積太小而無法阻擋電車,這個方案並不可行。
請問這時你是推還是不推?
這就是經典的電車困境了——1967年由哲學家Philippa Foot提出。50年之後,來自麻省理工學院媒體實驗室(the MIT of Media Lab)可擴充套件合作小組(the Scalable Cooperation group)的數名研究人修改了這項道德難題,將有軌電車換成自動駕駛汽車,並徵集了來自全球的回答。
2016年,麻省理工學院建立了名為“道德機器”的遊戲平臺,透過此平臺收集人類對未來人工智慧可能會遇到的道德困境的不同意見。
遊戲中,正在行駛的自動駕駛汽車直行會撞到一位年邁老奶奶,如果選擇變道則會撞到一位年邁老爺爺(有時可能是五隻狗或是五個輕微肥胖的男性)。
在這個遊戲中,玩家所要做出的不再只是一瞬間的抉擇,而是未來將會被編寫進汽車程式中的預先判斷。
據《Nature》雜誌報導,經過兩年時間,MIT已收集到3億9千6百萬份資料,該資料來源覆蓋了10種語言,233個國家和地區,囊括了多個不同文化對該困境的道德態度。
對這些資料進行分析發現,東方國家例如日本、沙烏地阿拉伯和印度尼西亞,人們傾向於保護那些遵紀守法的人。西方國家例如美國、加拿大、挪威和德國更傾向於選擇不變道,讓汽車繼續直行。而在一些拉丁美洲國家,例如尼加拉瓜和墨西哥,人們更傾向於為健康的、年輕的或是地位高的人選擇變道。
從整體上看,人們普遍傾向保護人類而非動物,願意犧牲少數保護多數,同時更傾向於保護年輕人。
無人車的倫理問題不是個簡單的選擇題。從學界到業界,都在孜孜不倦進行研究。
今年3月份,MIT、哈佛、加州大學爾灣分校、法國圖盧茲大學的一個聯合研究小組,致力於透過定量研究的手段,瞭解人們在面對無人車事故時的態度,並於最近釋出了研究成果。
論文作者來自腦和認知科學、心理學、經濟學等多個不同領域,MIT火爆的無人車課程講師Sydney Levine也是作者之一。
針對自動駕駛的道德問題,多數自動駕駛從業者對該問題都沒有明確回應,只能報以一聲嘆息。
行駛道路上,汽車難免會遇到衝撞情境,工程師們必須要考慮將如何權衡與抉擇編寫進自動駕駛汽車的程式當中。MIT媒體實驗室博士後合作者Edmond Awad提到:“我們主要的目的在於,去了解一旦事故發生,人們會如何反應。我們將這個遊戲作為大型平臺,以供專家們觀察和分析公眾的反應。”
那麼,搭建這項技術的工程師到底是如何看待道德困境的呢?
大多數人選擇,不作答。
Karl Iagnemma(Aptiv Automated Mobility 總裁兼自動駕駛車輛公司nuTonomy的共同創辦人)表示:“從工程師的角度看,解決這個困境需要基於兩點考慮。首先,誰都無法確定正確的解決方法是什麼,甚至都無法確定是否存在解決方法。其次,像這樣的事故機率是極其微小的,並且自動駕駛技術會讓這一機率繼續減小。”
另外,自動駕駛汽車無法做到像遊戲中的玩家一樣進行復雜的利弊權衡然後做出抉擇,它們的感測器甚至都無法辨別出汽車尾氣與牆面,更不必說百萬富翁與流浪漢了。
目前,開發者更多的是在關注一些基礎問題,比如訓練機器辨識騎腳踏車的人和停靠的車輛或是行駛的車輛。
不過,工程師同時也正在讓技術進行基本的利弊權衡判斷。
來自開發自動駕駛汽車感知系統的DeepScale公司的執行長Forrest Iandola告訴我們:“自動駕駛汽車會將檢測到的目標分為從脆弱到不脆弱的幾個等級。其中,最重要的脆弱物件是毫無防衛的人類,而停靠的汽車或是交通路標則被分類為不脆弱——也就是汽車在不得已的情況下會選擇撞上的物件。”
除此之外,自動駕駛車輛同時必須要適應世界不同文化。例如,NuTonomy在波士頓和新加坡測試了自動駕駛技術,形成了適應不同文化和情境的“規則手冊”。
不單單是nuTonomy這一家企業有著這樣的考慮,其他企業也同樣關注文化差異。Iagnemma表示:“我們所有都致力於構建安全且設計良好的系統。接下來我們將會關注駕駛偏好、文化和地理等問題,這些同樣也會涉及道德倫理問題。”
自動駕駛產業對利弊權衡和文化差異都已進行了不同的考量,更深層的道德問題也終將會被提上日程。
自動駕駛對電車難題會交出怎樣的答卷,我們屏息以待。
相關報導:https://www.wired.com/story/trolley-problem-teach-self-driving-car-engineers/