Uber安全員擔責,掩蓋自動駕駛的追責困境
還記得2年多前Uber的那起自動駕駛汽車導致行人死亡的車禍嗎?最新訊息是,今年的9月15日,亞利桑那州的大陪審團決定以過失殺人罪起訴當時Uber自動駕駛汽車前安全駕駛員拉斐爾·瓦斯奎茲,並建議判處其2.5年有期徒刑,而這位安全員當庭表示拒絕認罪,這場官司可能還要繼續打下去。
這場事故背後的責任方Uber呢?其實早在去年3月份,作為肇事方的Uber已經被美國法院判定無罪。
被稱為“自動駕駛致行人死亡第一案”的當事方就這樣輕而易舉地逃脫擔責,讓這個確實存在一定過錯的安全員來承擔全部罪責。這結果確實令人唏噓,難道這是一起“大公司作惡,小職員背鍋”的司法腐敗?抑或是,這場判決是美國司法的老模式遇到新問題,不知道如何對自動駕駛演算法系統及其所有者做出裁定?
在有安全員監控的自動駕駛測試或者商用中,我們自然還是會把車輛的安全事故責任歸咎於這個安全員,但一旦真正的無人駕駛大規模普及,車上的安全員,甚至是方向盤、剎車都去掉之後,車輛的安全事故責任,那自然就要算到研發和使用這套自動駕駛演算法的企業主體身上了。那麼到時候,關於自動駕駛演算法的追責將變得更加複雜。
在討論這一問題之前,我們不妨回到Uber的這起車禍細節中,來看下這場車禍判決存在哪些爭議點,Uber是否真的可以全身而退?一旦去掉安全員,無人汽車和自動駕駛演算法該如何擔責?這些看似未來才會遭遇的問題已經擺到了你我的面前,亟待思考和討論。
回到現場:車禍是如何發生的?
去年11月,美國國家安全運輸委員會(NTSB)釋出了一份報告,披露了Uber自動駕駛汽車在碰撞前10秒的細節。值得注意的是,當時已經判決了Uber平臺無責,但是這份報告中卻指出了Uber自動駕駛系統有種種漏洞。
這起車禍的大致經過是這樣。2018年3月18日晚上,亞利桑那州坦佩市一位女性在推著腳踏車過馬路時,被時速60多公里Uber無人駕駛汽車撞死。
如果這輛車只是一輛普通車輛,那麼事故責任就很明顯,一邊是行人橫穿馬路,負有一定責任,但車輛司機因沒有及時剎車和避讓,要負主要責任。但這輛車是Uber的無人駕駛測試車輛,車上面配有一名安全員,負責處理車輛的緊急情況。
在這起車禍中,這名安全員顯然沒有盡職盡責。根據調查,這名安全員在行車過程中,一直在透過手機觀看類似於“中國好聲音”的娛樂節目,這期間監控攝像頭拍到他一直在反覆低頭,直到事故發生前的0.5秒,他才注意到車輛前方的行人,最後只是在撞到後的0.7秒才踩下剎車,但事故已經發生了。
這場事故判決安全員擔責是毫無問題的。畢竟他的職責就是確保車輛行駛安全和道路行人安全,可由於他的疏忽大意,直接造成了這一嚴重事故。日常生活中,大量的行車事故大多由這類疏忽大意造成。
但正是Uber無人駕駛車輛的自動駕駛系統給了安全員一種錯覺,認為車輛可以自行判斷前方的路況,而自己可以偷懶去看手機。這也是自動駕駛技術等級中L3級別的困境。車輛可以高度自動駕駛,但是出了事故要算駕駛員的。那麼怎麼可以讓駕駛員放心的休息或者娛樂遊戲呢?
回到Uber這輛車,難道它就沒有任何問題麼?從調查來看,問題也很多。
在Uber車輛撞到行人前的10秒中,車輛本來識別到這個行人並避免車禍的。但是一系列系統的誤判導致了車輛未曾減速就撞了上去。報告中有幾個關鍵資料:在9.9秒到5.8秒中,汽車從56公里加速到70公里;在5.6秒,汽車毫米波雷達(Radar)第一次檢測到前方有物體,並識別其為“汽車”,5.2秒,汽車鐳射雷達(Lidar)第一次檢測到前方物體,將其識別為“其他”,判定其靜止不動。4.2秒到2.7秒,汽車對識別物件在“汽車”和“未知”之間來回搖擺,但是沒有參考對物體的跟蹤歷史記錄,最終將其判定為靜止物體。
2.6秒到1.2秒的時間,鐳射雷達才將物體識別為靜止的腳踏車,但又出現判定搖擺,等到重新識別為自動車,並決定製動。但車輛真正制動是在車禍前的0.2秒開始。這時時速64公里的車輛已經無法避免撞到行人。車禍發生。
我們看到,在車禍發生前的幾秒鐘,車輛發生了多次搖擺不定的誤判,浪費了大量時間。根據NTSB報告指出,造成事故的關鍵問題就是,軟體無法正確預測受害者的類別和運動軌跡。如果系統及早正確地識別出前方物體是行人,就應該大幅放慢速度,或者設法繞開避讓。
但是Uber的自動駕駛系統並沒有如此謹慎行事,反而是因為Uber認為緊急制動系統會造成車輛的不穩定,所以對該系統做了限制。
也就是說,Uber把自動駕駛系統的剎車當成了最後才考慮的因素,真是細思極恐。
自動駕駛系統開車,安全員負責?
如果按照NTSB的調查,那麼Uber的自動駕駛系統就存在巨大安全缺陷,首先是汽車的識別演算法的準確度和時效性問題,其次就是對於緊急制動系統的設定許可權問題。NTSB得出結論說,Uber取消車輛出廠自帶的自動緊急制動系統的做法,增加了在公共道路上測試自動駕駛車輛的風險。
據調查報告,這輛Uber汽車在車禍前,已經以自動駕駛模式執行了約19分鐘,車輛大約至少行駛了約22公里。那麼在這段距離內,如果安全員沒有踩過一次剎車,那就意味著自動駕駛系統也很可能沒有啟動過一次剎車。如果有開車經驗的人來說,哪怕是夜深人靜的街道,很少會在以每小時接近70公里的時速下行駛20多公里,都不需要減速或剎車。
如果是Uber真的把剎車許可權交給了安全員,那麼這個安全員怎麼又可能在完全不顧及自己和行人安全的情況下,在高速行駛中還敢沉浸在娛樂節目當中。
也就是說,Uber將剎車許可權交給安全員的同時,卻沒有讓安全員意識到自己要百分百了解這一安全措施。Uber透過設定安全員規避了法律風險,但是它自身卻沒有預計到車輛的安全風險,也沒有盡到告知義務,使得一個被演算法“忽悠”的人類成為自動駕駛技術走進現實世界的註腳。
反過來說,一輛汽車的自動駕駛系統在自動駕駛模式下系統沒有剎車許可權,而是完全需要安全員操作的話,那麼這場自動駕駛測試到底意味著什麼,一場假的自動駕駛測試嗎?
根據Uber的一名離職工程師的說法,“Uber的車禍發生率會還是太高了”,“如果是Waymo出現這樣的表現,就會停止測試以找出原因,而Uber則會忽略這一問題”。
這些問題也正是外界詬病Uber的無人駕駛計劃的地方。Uber既想透過激進的自動駕駛計劃來推進其自動駕駛計程車業務的商業化,又想透過設定安全員來規避其在自動駕駛系統上的缺陷和漏洞,最終出現問題,還可以把責任推給這些僱員。
顯然,Uber做到了。在2018年底,Uber又恢復了部分城市的無人車路測,為每輛車配備了2名安全員,並進行更為嚴格的監控,以及對自動駕駛系統做了最佳化。
而對於當地的司法機關來說,判決Uber無需擔責的原因則很簡單,就是“沒有任何判決依據”。
無人駕駛之後,誰來真正擔責?
因為缺乏法律責任的認定,這次Uber得以“僥倖”逃脫。但根據以上分析,Uber在事實責任面前是難辭其咎的。
首先,Uber自動駕駛系統並沒有以安全作為第一考慮要素,而是更強調系統的穩定性和持續性。這是為Uber無人車出現眾多安全事故埋下了隱患。如果未來Uber是以這樣一套“激進”的演算法來推進其無人駕駛計程車的行駛策略,那麼,很容易出現車輛以快速行駛優先而忽略道路安全的情況。
其次,該駕駛系統的測試存在紕漏,按照其對制動系統的設定,需要安全員的干預才能完成,這顯然是背離自動駕駛技術的本意。顯然,這樣的系統是無法真正實現無人駕駛的商用的。
就在Uber出現致命事故的同一年,美國的加州卻進一步放鬆了無人駕駛的監管,可以允許車輛上沒有安全駕駛員,只需要保證自動駕駛車輛出問題時,能被遠端接管即可。
2019年,Waymo就拿到了加州機動車輛管理局(DMV)頒發的完全自動駕駛測試牌照,測試時可以不用安全員。後面在無人駕駛計程車上,乘客也已經可以打到沒有安全員的計程車,只是在遇到突發危險後,可以在行駛中按下汽車幫助按鈕或在應用程式中與安全員取得聯絡。
那麼,這一情況下,就必須要考慮到無人車的新的責任歸屬和相關問題了,畢竟車輛出現事故不能再歸咎於遠端指導的安全員了。
那責任歸屬其實就比較簡單了。在根據正常的交通事故責任認定後,如果排除了對方責任之後,那麼事故責任就會判定為無人駕駛汽車的責任,但至於是車生產商、自動駕駛系統提供商或業務運營方來承擔責任,則需要根據商業模式的責任劃分和對現場事故的原因判定來進行劃分。
但這裡會有一個法律責任主體缺失問題。在現有一般情況下,幾乎每一場事故都會有專門的人來對此負責,大多數都是違規肇事司機,但一旦換成無人駕駛汽車,那麼也就找不到這樣一個法律責任主體。因為不可能去控告一個購買了無人駕駛汽車的車主吧,畢竟他沒有開車,也不可能去控告設計了這個自動駕駛演算法的工程師吧,工程師又不是一個人,事故原因也不能僅僅歸因於某行程式碼。那麼,歸結於提供自動駕駛系統的公司嗎?那這樣沒有任何一家公司會在願意承擔如此巨大的風險了。
也許未來將會有一個由自動駕駛汽車各方和保險公司共同成立的責任主體,這些製造、設計和運營各方根據責任大小承擔相應比例的保險費,無人駕駛的私家車主(估計會很少是個人)也會在購買服務中支付一定的保險費用,形成一個保險資產池,來應對可能出現的事故。
這個責任主體對事故承擔整體的責任認定和賠償,同時也在內部形成一套AI測算系統,根據不同汽車廠商的車輛損壞情況、不同自動駕駛演算法的事故率和運營商的運營策略來認定具體責任,以決定不同主體未來的保費。
比如,有些汽車廠商以保障車內乘客的安全優先,那麼在出現事故導致行人受損後,基於這種策略的公司就要多交保費;如果有些廠商是以保障行人乘客的安全優先,出現車內乘客受傷或致命事故,就要多支付費用,多賠付車內乘客。
可以預見,當自動駕駛無人車普及之後,各種各樣複雜狀況的責任認定案例會層出不窮。我們必須在此之前就要開始思考和嘗試立法工作。而不是等到事情發生之後,才開始摸索。千萬不要像Uber案例一樣,最終只能把罪責扣在這個不負責任的人類身上,而對自動駕駛演算法系統束手無策。
對無人駕駛汽車的嚴苛管制,並不意味著我們不看好這一產業。在我看來,無人駕駛汽車的前途是非常光明的。儘管會出現這樣那樣的極端事故,但是無人駕駛在未來一定會比現有的人類駕駛的出行狀況是更安全的。
就像目前Waymo出現的眾多事故中,絕大多數都是人類司機的全責。當未來一旦無人駕駛汽車佔據多數的時候,我們就不必再小心這些車輛,而是要更小心人類司機的車輛了。因為自動駕駛系統開車時是不會去看“達人秀”的。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31561483/viewspace-2725459/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 因妨礙“盜竊罪”調查程式,Uber解僱自動駕駛負責人自動駕駛
- Uber事故案最全剖析:誰該擔責?誰在走捷徑?大勢難擋的自動駕駛應該重拾敬畏之心了!自動駕駛
- 微服務架構的責任困境微服務架構
- 特斯拉Autopilot自動駕駛軟體負責人離職自動駕駛
- 敏捷開發人員的責任敏捷
- Uber自動駕駛汽車重回道路測試 增加人類駕駛員監控系統自動駕駛
- 物件的責任與職責物件
- ORACLE 資料庫管理員的職責Oracle資料庫
- 行政責任和民事責任,刑事責任的區別
- 又一次致人死亡,自動駕駛到底該不該問責?丨曼孚科技自動駕駛
- 誰應該承擔專案失敗的責任?(轉)
- AAA:66%的美國司機擔憂自動駕駛汽車技術自動駕駛
- 1.2 資料庫管理員職責資料庫
- 因掩蓋資料洩露,Uber前首席安全官被判三年緩刑
- ORACLE 資料庫管理員的職責(轉)Oracle資料庫
- 網路接入商不應承擔連帶責任
- 我們作為軟體工程師要擔負的責任軟體工程工程師
- ORACLE 資料庫管理員的職責[轉貼]Oracle資料庫
- 專案管理明確責權利 風險共承擔(轉)專案管理
- 資料治理的人員角色職責 - corymaklin
- 警方披露Uber撞人案細節,解密Uber自動駕駛系統解密自動駕駛
- Linux Energy 計劃承擔管理和保護電網的責任Linux
- 自動駕駛系列(七)——聊聊人機互動中的DMS駕駛員監控系統自動駕駛
- 「我解僱了打壓共享出行服務的負責人」:亞利桑那成為自動駕駛熱土背後的故事自動駕駛
- 誰來對家庭網路安全負責?
- 增刪改是Respository的職責,還是Entity的職責?
- Oracle DBA的職責Oracle
- Uber牽手戴姆勒共事自動駕駛,探索未來出行模式自動駕駛模式
- 詳細講解Oracle資料庫管理員的工作職責Oracle資料庫
- 道哥”透露從業初心:安全技術影響世界,就必將要承擔起社會責任
- 被資料掩蓋的遊戲出海真相遊戲
- 對於工程師責任和責任邊界的認知工程師
- 客戶程式的職責
- 前端架構的職責前端架構
- Uber將建自動駕駛汽車測試基地,但不為造車自動駕駛
- YouGov:只有28%的美國人認為自動駕駛很安全Go自動駕駛
- 職責鏈模式模式
- 指責和分享