絕不妥協的特斯拉引眾怒,被誇大的自動駕駛還要奪走多少人命?

在美國德州發生的特斯拉Model S致命車禍事件仍在發酵,引發了更多關注和討論。

負責監管車輛安全的美國國家公路交通安全管理局(NHTSA)和美國國家運輸安全委員會(NTSB)周一宣布,正在調查這起事故。

北京時間4月20日早間,特斯拉CEO馬斯克(Elon Musk)也打破沉默,首次針對此次事故發聲。

馬斯克在Twitter上表示,迄今提取到的數據顯示,該車發生車禍時沒有使用特斯拉自動輔助駕駛系統Autopilot,而且這輛車也沒有配備FSD(完全自動駕駛套件)。

圖源:馬斯克Twitter

馬斯克稱,「此外,標準的自動輔助駕駛需要有車道線才能開啟,而出事街道上沒有。」

Autopilot是特斯拉汽車的標準配置,但並不總是能完美地識別車道標記,比如會混淆道路或單車道上的密封裂縫和其他車道標記。

對於馬斯克的發言,正在調查此事的哈里斯縣第四分局警員馬克·赫曼表示,這是警員們第一次聽到來自該公司的消息。

赫曼稱,「如果他已經調取了數據,他還沒有告訴我們,我們正急切地等待獲取這些數據。」

赫曼反駁了馬斯克的說法,稱有目擊者的證詞:這兩名男子離開是為了試用自動駕駛功能,向朋友展示汽車如何能自己駕駛。

赫曼對路透社表示,德州警方周二將向特斯拉發出搜查令,以獲取周末發生車禍的車輛數據。

可以看出,特斯拉的Autopilot系統是Model S致命車禍事件的一個關鍵。事實上,Autopilot的使用此前已引起美國監管部門的關注。

美國國家公路交通安全管理局(NHTSA)上個月表示,正在調查近二十多起涉及特斯拉的事故,這些事故發生時,要麼涉事特斯拉汽車正在使用Autopilot功能,要麼可能一直在使用Autopilot功能。

被誇大的自動駕駛功能

事實上,Autopilot這項功能自推出起,就充滿了爭議。

特斯拉於2015年推出Autopilot功能。Autopilot本義是飛機的自動駕駛系統,批評者認為,特斯拉使用這個名字,充滿了誤導性,會讓司機誤認為特斯拉汽車有自動駕駛能力,從而放鬆警惕。而實際上,Autopilot只是輔助駕駛的功能。

最初,特斯拉在中國官網上也是使用「自動駕駛」這樣的字眼。而這也引發了質疑。

2016年8月初,一名中國特斯拉車主發生車禍。當時這輛汽車正處於「Autopilot」模式,但其未能避過停在左側的汽車,導致兩輛汽車損毀,但無人員傷亡。這是特斯拉自動駕駛被曝光的中國首例事故。

車禍發生後,該名特斯拉車主發微博詳述了車禍發生的過程,並投訴特斯拉公司誇大自動駕駛功能,誤導消費者。

特斯拉隨後在中國官網上用「自動輔助駕駛」這個詞替代了「自動駕駛」。

不過,據外媒報道,特斯拉在宣傳Autopilot時仍有所誇大,特斯拉在其網站上將Autopilot稱為「駕駛的未來」,就好像它是世界上最先進的自動駕駛系統。

其實並非如此。自動駕駛有6個級別,從L0到L5,L5是最高級別。Autopilot是L2級系統,美國交通部將其定義為「部分自動化」,要求駕駛員「始終保持對駕駛任務的投入,並時刻監控環境」。

就在上周六,馬斯克還曾宣傳該公司最近的一份安全報告。馬斯克在Twitter上表示,「現在,啟動Autopilot的特斯拉出事故的幾率比普通車輛低10倍。」

但美國權威雜誌《消費者報告》互聯和自動汽車測試負責人凱莉·芬克豪斯表示,特斯拉過去的數據並不準確,在沒有基礎數據的情況下也很難驗證。

芬克豪斯補充道,在報告中,特斯拉沒有說明系統出現故障但沒有撞車的次數,也沒有說明什麼時候司機未能接管車輛。

今年,特斯拉還將推出所謂的完全自動駕駛功能,可在大多數特斯拉車型上作為軟件升級,價格為1萬美元。但該技術遠未達到L5級自動駕駛,即「完全自動化」。

普林斯頓大學自主汽車工程系主任阿蘭·科恩豪瑟表示,「馬斯克的做法完全不負責任。」

科恩豪瑟稱,的確,在一些細則中,特斯拉說明了他們還沒有準備好(自動駕駛),但馬斯克已經向消費者售賣了汽車可以自己駕駛的夢想。「這不是一個遊戲。這是嚴肅的事情。」

過度依賴「自動駕駛」系統釀惡果

批評者認為,特斯拉多年來誇大營銷Autopilot系統的方式,助長了一些司機依賴、濫用該系統,從而導致了Autopilot相關事故增多。

在使用手冊上,特斯拉建議司機在使用Autopilot時,雙手放在方向盤上,並注意觀察但是,網絡上出現了許多視頻,稱有人在駕駛座上睡覺,或以其它不安全方式駕駛。一些特斯拉司機表示,他們在使用Autopilot時能夠不必將手長時間放在方向盤上。

美國監管機構的報告也證實了依賴Autopilot系統所帶來的惡果。

美國國家運輸安全委員會(NTSB)發現多起致命和非致命事故和Autopilot有關,根據NTSB的報告,這些事故都有一個共同點:司機過度依賴「自動駕駛系統」,但是在某些情況下系統是有缺陷的,在某些情況下它的能力並不如司機所想的那麼強,從而導致事故發生。以下案例均來自NTSB報告。

2016年,在佛羅里達州威利斯頓市發生一起車禍,車主駕駛的特斯拉Model S被一輛牽引車壓在下面造成司機死亡。報告稱, 「特斯拉的自動車輛控制系統沒有設計成和識別出橫穿車道的卡車,也沒有判定即將發生碰撞。」

2018年,在加州山景城發生一起車禍,一輛Model X撞上了高速公路隔離帶,導致司機死亡。

報告稱,「車禍的可能原因是,由於系統限制,特斯拉Autopilot將Model X引導到了高速公路的分道角區,而駕駛員由於分心而缺乏反應,他可能正在玩手機遊戲應用,並且過度依賴Autopilot的部分駕駛自動化系統。」

2018年,在加州卡爾弗城發生了一起非致命性車禍。一輛Model S追尾停在車道上的消防車。報告稱,「可能的原因是,由於未注意到車輛的高級駕駛輔助系統,特斯拉司機對行車道上靜止的消防車未作出反應。」

2019年,在佛羅里達州德雷海灘發生了一起車禍,一輛Model 3從一輛牽引車下駛過,導致司機死亡。報告稱,「Autopilot沒有向駕駛員發出視覺或聽覺警告,讓他把手放回方向盤上。由於系統的設計限制,避撞系統沒有發出警告或啟動(自動緊急制動)。周遭環境超出了Autopilot的(操作設計領域)。」

據外媒報道,自Autopilot推出以來,在美國發生的9起涉及Autopilot的車禍中,至少有11人死亡。在國際上,又有7起事故,導致至少9人死亡。

美國政府或加強監管

接連發生的特斯拉Autopilot相關的事故,也引發了美國監管機構的反思。

今年2月1日,NTSB主席羅伯特·薩姆沃爾特致信美國交通部,批評自動駕駛系統安全標準不嚴,並特別提到特斯拉。

薩姆沃爾特表示,如果該部門在2016年佛羅里達州死亡事件發生後,要求特斯拉改進Autopilot的安全協議,2019年Model 3車禍致死事件可能就不會發生。

薩姆沃爾特還警告稱,「特斯拉正在公共道路上測試一項高度自動化的(自動駕駛)技術,但監管部門對其監督非常有限,這會給司機和其他道路使用者帶來潛在風險。」

NTSB還批評NHTSA對自動化車輛的監督方式「是錯誤的,因為它基本上是等待問題發生,而不是主動解決安全問題。」NTSB還表示,NHTSA「對自動車輛安全採取了一種非監管的方法。」

NTSB只能發佈建議,要求NHTSA和特斯拉將Autopilot系統使用場景限制在該系統可以安全運行的道路上,並要求特斯拉配置一個更強大的系統來監控司機,以確保他們的注意力集中。

特斯拉和NHTSA都沒有採取行動,因此引起了NTSB的批評。

過去,NHTSA有權對汽車製造商進行監管,並能要求召回有缺陷的車輛。但由於擔心阻礙有前景的新功能的開發,NHTSA對部分和全自動駕駛系統的監管採取了不干涉的態度。

但自今年3月以來,NHTSA加強了對特斯拉的調查。不過,到目前為止,它一直依賴汽車廠商和科技公司自願遵循安全合規。

NHTSA上月表示,「隨着新政府成立,我們正在審查關於自動駕駛汽車的法規。」

監管機構的批評者表示,隨着自動化系統不斷向完全自動化邁進,法規(尤其是約束特斯拉的法規)早就該出台了。

去年12月,在前總統特朗普離任前,NHTSA曾就(自動駕駛相關)法規徵求公眾意見。美國時任交通部長趙小蘭(其管轄部門包括NHTSA)表示,該法規提案將解決安全問題,「同時不會妨礙自動駕駛系統的開發創新」。

但她的接替者皮特·布蒂吉格在國會面前表示,改變可能會到來。

布蒂吉格上月表示,「我想說的是,美國的政策框架還沒有真正趕上技術平台的進步,因此,我們打算對此給予高度關注,並在我們的權限範圍內盡一切努力。」布蒂吉格稱,可能會與國會合作解決這一問題。

研究自動化汽車的杜克大學電氣和計算機工程教授卡米斯表示,德州車禍會成為NHTSA(政策)的分水嶺。

她希望這次車禍能帶來改變,因為「特斯拉已經持有這麼長時間的免費通行證了」,是時候改變了。

(加美財經專稿,抄襲必究)

#特斯拉#、#自動駕駛#

作者:宋星

責編:Faye