所謂的L4無人車體驗, 其實糟糕到讓我懷疑人生

宇多田happy發表於2019-07-17

作為一名科技記者,現在再看自動駕駛,再也沒有 3 年前像彭博社一樣用 3 篇連發稿件「熱烈祝賀」Uber 無人車開上匹茲堡街頭的興奮感。

實話講,當技術公司因為媒體嘴裡喊著「自動駕駛凜冬將至」而憤憤不平時,可能自己也沒想到,那些合作儀式上剪的過量綵帶、調過速的影片(還有調到 16 倍速的)以及「202*年的諾言」其實就充當了讓質疑聲越來越響的催化劑。

因為總有一天,我們是要上車的。

或者嚴肅一點兒來說,對所有技術公司而言,自動駕駛是一門 2B2C 的生意。所以,請大家重視那個 C。

http://pic.rmb.bdstatic.com/6f41bc9f4dd6e17350640dc57c5896a22927.gif

因此,就在我一年多來坐上了許多號稱限定環境內的 L4 級自動駕駛車以後,那種因影片而產生的「欣慰之情」不僅蕩然無存,反而讓我沮喪到開始懷疑人生:

園區內全自動駕駛?那就龜速行駛,體感極像公園裡的有軌小火車。已經在全球很多城市執行的各家公司的自動駕駛小巴,有一些能讓我輕鬆徒步與它並肩前行。在這種速度下,與其考慮車撞人,不如考慮人撞車(反正我實在受不了速度,就試著去撞了,掐指一算應該用身體撞過五六輛小車了)。

高速公路上的高速自動駕駛?可能連車道保持都勉勉強強,有時候還抖成篩子。大家見過電視購物裡那種甩脂機沒?功效如出一轍,想懶人式無腦減肥可以嘗試一下。

完全cover普通道路的L4級車?安全員接管率高到純粹就變成了一名司機。當然,我們要理解程式猿與安全員的苦悶和無奈——

國內辦公區和住宅區附近哪裡不是車堂而皇之就成排停在車道上?路上的停車位比行駛空間還寬,刮蹭了車還得上社會負面頭條新聞,無人車有什麼罪。

所以,當我一次次在望京大山子地區最擁堵複雜的路口止步不前、仰天長嘯時,愈發對一句話深信不疑:

「如果你愛這輛無人車,就請把它送到大山子;如果你恨這輛無人車,也請把它送到大山子」。

感知能力強?在一次L4級無人乘用車快戳上前方公交車屁股才做出急剎車的反應後,後座沒系安全帶的我,身體被帶離座位並做出了一個懸空向上的高難度彈跳動作(請自行腦補),腦袋最終大力砸中車頂(感覺沒車頂的話我可以直衝雲霄)。因此我強烈建議,在剎車體感如此感人的情況下,給車頂也裝個安全氣囊實為一種物理補救的上上策。並且,任何試乘試駕都請繫上安全帶。

每每這個時候,我腦子裡就會重新過一遍兩年前一位 Waymo 工程師說過的話:

「那些我們總是覺得夠充分的 N 層安全冗餘,在現實場景下總是被一層一層剝地連褲衩都不剩。」

這話放到今天,不由感嘆仍然是這麼讓人想擊掌點贊。

http://pic.rmb.bdstatic.com/ad7904a4a9c37297fcba1227680a6bec9529.gif

當然,一些好的試乘專案也會讓人眼前一亮,但大多數名不副實的體驗猶如一次次把榔頭毫不留情地夯在了我的腦袋上——

不僅讓我愈加清醒,也開始真正督促我把關注焦點從虛無的技術描述轉移到無人車的效能、實測表現與乘坐體驗上。

然而,自動駕駛的技術在這頭,使用者體驗在那頭,中間的位置,我一直好奇到底是誰能扛起把「程式設計師語」翻譯成人類語的大任……反正不是 PPT。

或許,一個專屬於無人車的產品經理才是正解。

1 、自動駕駛也有產品經理?!

實話講,我從來不知道自動駕駛汽車來也有產品經理,直到我在百度上週的 AI 開發者大會上轉悠了半天。

其實有點可惜,即便這場技術會議在兩天內的熱度比他們前幾屆大會的總和還要多得多(這梗就不提了),但這個效果跟技術沒半毛錢關係。

大眾照樣對人工智慧一知半解,對無人車的認知也頂多停留在Demo 影片裡。

而現場也證明了的確如此:

聊程式碼和晶片功耗聊到 high 的開發者們用表情和專業術語告訴我,技術,仍然是一小部分人的狂歡。

坦率講,當自動駕駛論壇裡的工程師用各種引數來描述阿波羅平臺升級到 5.0 的好處時,坐在一群開發者中的我,不得不一邊裝逼點著頭,一邊豎起耳朵聽周圍程式猿的即興評論,但心理活動則是——

為毛他講的每個字都能聽懂,但是組合起來就是不懂。

http://pic.rmb.bdstatic.com/d3eb80b630a2a01faf8fd2e9378f2f874836.gif

無論是「新增加的資料流水線」,還是「全新的路徑邊界決策與最佳化演算法」,亦或是「增強的感知能力」,對於開發者來說,或許值得上手一試(嗯,沒車也可以試);

但對於普通大眾,判斷標準只有一個——感官。

http://pic.rmb.bdstatic.com/7872721f9192c452b5b30ee829b645392965.gif

沒有得到答案原本準備放棄的我,竟然在無人車展示區「找到了組織」。

是的,我遇到了一位產品經理(我問了三遍,他明確表示自己是一名無人車產品經理)。

「其實技術平臺的這一套東西我們也不太清楚,」這位耿直的產品小哥沒想到一上來就「自露家底」,

「我們可以說,技術升級有助於這輛車的效能升級,但是前者是後者的充分條件,不是必要條件。」

他承認,即便是 1 年前,技術上所謂的升級與實際效果仍然有不小的差距,而現在每次隨車測試,與以前相比已經「進步不小」:

「說實話以前變道其實蠻傻的,要麼對道路標線識別錯誤找錯變道時機,要麼『前瞻後顧』遲遲變不了道。

但現在要好很多了,接管次數也明顯變少。」

不過仔細一想,ADAS 都誕生多少年了,但是包括「自動變道」「車道保持」「自動跟車」等一系列對大眾來說已經完全不陌生的汽車 ADAS 功能,仍然都做得不盡如人意。

「急剎的話,可能是縱向控制沒有做好。」他聽了我對一次糟糕體驗的描述,試著進行了解釋,

「一方面,沿著我前進方向(縱向),可能對於前車的速度估計不準;也有可能是我的速度規劃不好,在沒有必要剎車的情況下剎的力度大了,然後慢慢減緩;

當然,也有一個情況就是,感測器判斷錯誤或者失靈了。」

他認為,縱向演算法做的不好,很容易出現體感問題,這是在基於他們內部每週體驗報告得出的一個基本結論。

「我們有個專門的專案就是隻針對無人車的舒適度進行跟蹤取證。每個星期有特定的人員去坐車,然後給出一個主觀評價。最近其實倒是沒有這麼頻繁了。

有些體驗結果其實非常類似,而指向性也特別明顯,譬如因為識別錯誤和位置誤差導致的急剎並不少見。」

除了急剎,我也從他那裡找到了那次體驗別人家無人車在路上走 S 路線(畫龍)以及時不時發生抖動的「病根」。

「畫龍其實就是橫向漂移,也就是(他們家)定位沒做好,特別是一些主要依靠 GPS 的方案,其實很懸;

而車有時候的來回抖動,包括在上下匝道時,其實也跟定位有關係。偏離一點然後又給抖回來了,來回抖,來回撥。」

他認為,這些問題在一定時間內都可以解決,但是解題也有難易之分,比起縱向控制(油門與剎車),橫向控制問題(方向盤)難度更大。

「面對複雜路況,最主要的還是考驗你變道的能力。目前來看,汽車縱向控制的能力大家實際都差不多了,加速減速以及定速其實都很簡單。

但是一涉及到橫向控制能力,譬如變道,譬如路口轉彎,假如把各家的車放在一起對比,每家公司還是有很大差距。」

譬如,曾有一家技術公司明確表示過國內的無人車並沒有跟國外相同的「無保護下左轉彎難題」,這個說法遭到了產品小哥的怒斥:

「讓他試試在北京的那種大路口來一次左轉彎。

我們跟過無人車的路測人員都被很猛地切過車,特別是左轉彎,被各種切。

左轉彎,你要考慮對面的車,還得考慮同方向的,同方向的有人會從你的內彎超車,還會從外彎超車,開過車應該都知道(作為一名無駕照但騎腳踏車在大路口進行過左轉彎的社會人士,我覺得左轉彎也挺危險的……)。而且有些地方還要遵守左轉彎待轉區的停留規範,一不留神就會扣分。

所以,國內的『無保護左轉彎』難題是切實存在的,也是我們致力於去解決的。」

當然,讓他更無奈的,還有許多非常具有本土特色的交通現象,以及司機們之間獨特的相處模式。

譬如密度較高的施工點,譬如路邊各種胡亂停放佔用車道的車,譬如有老司機就是想故意別你車,再譬如與摩托車和小三輪的相愛相殺……

「很多時候你不能怪安全員要接管過來,我們其實已經把最低容忍車距降到了 50 釐米,但是兩邊的車實在是太近了,這種碰撞和擦花車的風險實在太高。

另外沒有辦法的是,上下匝道的限速我們是遵守了,但是人開的車可是沒一輛遵守限速的。

我們有經歷過在前面開著開著,後面的司機開始使勁鳴笛和罵人,沒辦法只能司機接管過來開道。」他忍不住開啟了吐槽模式。

所以,現在你應該能充分明白為何所有技術公司總要給無人車的發揮場景來一個「限定」。

也應該能明白,為何連號稱「地表最強」的谷歌,要選擇在地處沙漠氣候(雨比金子還貴),城市環境類似國內高新技術開發區(人口密度低,基礎設施非常新)的鳳凰城運營無人計程車。

基於各種主觀與客觀因素的試煉後,產品經理小哥眼中的無人車評判標準其實只有一個:

「是否足夠像人」。

這裡當然不是說「要跟人做的一樣好」,而是要讓車儘可能像人一樣思考。

「我們之前曾頻繁遇到這樣一種情況,右前方有車壓線,我們過不去,只能乾等嗎?

如果是人的話估計就借個道拐一下就過去了,可車是『直線思維』,一開始就是在那裡乾等的,要麼就讓人接管過來先過去再說。

但是為何車就不能具備人這種思路呢?

所以我們在對演算法進行最佳化後,是允許車在某些時候偏離車道中心的,這裡的術語叫 nudge,意思就是稍稍偏離一下借旁邊車道的一小部分先過去。

有非常多的場景,如果你完全按照交規是根本沒法開的,就比方你右轉,那裡有輛殭屍車等著你,你能會怎麼辦?

假如旁邊就是有車來故意懟你,你應該怎樣計算出車周圍的最佳緩衝區?」

就像這位產品小哥所說的,無人車的所有行為都不應該是基於某一個固定規則的,而應該是基於不斷去揣摩學習人類慣常行為的道路規劃,這是一個動態調優的過程。

更深奧一點,就像剛才提到過匝道幾乎不會有人遵守限速一樣,想融入人類這個複雜的環境,無人車們就必須變得跟他們一樣,成為「烏合之眾」的一員。

http://pic.rmb.bdstatic.com/31ba75d99757cb911f732ff3192717293187.gif

「演算法本身就是具有靈活性的,這應該是我們值得慶幸的。目前階段千萬不要指望用無人車來改變人類的習慣。」

2、「與其依靠純視覺,指望鐳射雷達降成本可能更靠譜」

最近,百度在全球頂級學術會議上釋出的基於 10 顆攝像頭的純視覺 L4 方案曾引起過不小的轟動,這在某種程度上也被一些人解讀為是一種對馬斯克「鐳射雷達無用論」的附議和討好車企的舉動。

然而,在百度大會展臺上擺著的,仍然是一輛頭頂禾賽科技 40 線鐳射雷達的四門轎車。

「這個版本的車是百度的主流方案,L4 純視覺僅限於研究,商用目前不可能。」

「或者可以這麼說,與其我們期待純視覺做到 L4 能商用的程度,還不如期待一下降低鐳射雷達的成本靠譜。後一條路可能會更快,而且可靠。」

在產品經理看來,兩套方案在高速公路上的可靠性差距其實非常大。

「以高速公路為例,大家都知道高速公路因為行駛速度,非常受制於感測器的覆蓋範圍。範圍肯定越遠越好,這樣給感測器的預判時間才能充足。

鐳射雷達,我們自己的有效感知範圍可以做到 200 米。

但如果是做到 100% 把握,其實核心感知範圍是 100 米。

而純視覺方案,能做到 100% 把握的範圍更小而且本身也不穩定,假如遇到邊緣案例,沒有冗餘的前提下就是致命的。

因此,做到高速公路上的 L3 級以上,目前是不可能的。

當然,這裡千萬不要把它跟某些特定的高速公路 Adas 功能混為一談。」

事實告訴我們,對這番話最有力的證明,莫過於特斯拉。

雖然這家公司的車已經被人拿出來當靶子太多次,但我們還是不得不提那起被譽為「最佳感測器配置反面教材」的 2016 年致命車禍。

這起案例之所以「經典」,可以一言以蔽之:

運動中的障礙物「完美」避過了車體現有感知層的所有硬體安全冗餘。

密歇根大學教授 Brandon Schoettle 曾在 2017 年又對這一經典案例做了感知層面的有趣總結:

「另一輛車(障礙物)進入感測器覆蓋區域相對較晚。在沒有鐳射雷達的前提下,這輛車首先應該進入遠端毫米波里雷達的探測範圍,然而卻恰好一直擦著它的覆蓋邊緣(無論垂直還是水平都沒有);

接下來進入攝像頭的範圍了,然而識別出了問題,距離與視場限制了識別物件的完整性,這就是為何白色車體被識別為漂浮著的雲。

到最後一層硬體冗餘——短程雷達(超聲波)的時候,已經來不及了,反應時間都耗盡了。」

這樣的例子是否屬於「邊緣案例」(指極少數發生的情況)?

很難說,因為致命事故已經發生意味著大眾不會把它當成一個特例。

(該圖例以特斯拉 2016 年車禍為基礎進行了適當調整後作為了一個通用案例用來解釋「停車距離」這一概念,最終用來證明自動駕駛汽車的反應時間與感測器配置方案有直接關係。摘自 Brandon Schoettle 的報告)

也正因為如此,圈內對特斯拉自動駕駛方案的等級界定(無論是輔助還是升級後的全自動)一直頗具爭議。

產品小哥很坦率地承認由於身份原因,不能過多評判這兩套方案,因為單車智慧無論怎樣都會有疏漏。但他們清楚什麼樣的方案在什麼樣的場景下效果不行,也清楚在體驗上到底有什麼樣的變化。

「我們究竟還做不到什麼,阿波羅 5.0 的一個形容詞就能說明問題——「限定」。已經升級到 5 了,但仍然是限定場景下的能力實現。

而如果說車廠們因為成本問題更偏向純視覺的說法,其實也不盡然。他們偏愛的是 L3 級別以下的部分能力可以實現的純視覺方案。

L4 以上的純視覺方案,就不再是單純的攝像頭成本問題了,還有後面計算單元的架構、成本和車規問題。所以大家的統一口徑是『正在研發中』。」

「那你覺得現在是否覺得大家其實有點兒在濫用無人車等級?」這是我的最後一個問題。

「這個級別本來在我們眼中就沒有什麼意義。技術公司(不管有沒有實力)可以都說自己做的是 L4,反正他們最終不用為此付出什麼社會責任;

而那些(不管有沒有實力)說自己能量產 L4 無人車的車企,一定得有為此揹負罵名的勇氣。」

相關文章