在美國德州發生的特斯拉Model S致命車禍事件仍在發酵,引發了更多關注和討論。
負責監管車輛安全的美國國家公路交通安全管理局(NHTSA)和美國國家運輸安全委員會(NTSB)周一宣布,正在調查這起事故。
北京時間4月20日早間,特斯拉CEO馬斯克(Elon Musk)也打破沉默,首次針對此次事故發聲。
馬斯克在Twitter上表示,迄今提取到的數據顯示,該車發生車禍時沒有使用特斯拉自動輔助駕駛系統Autopilot,而且這輛車也沒有配備FSD(完全自動駕駛套件)。
圖源:馬斯克Twitter
馬斯克稱,“此外,標準的自動輔助駕駛需要有車道線才能開啟,而出事街道上沒有。”
Autopilot是特斯拉汽車的標準配置,但並不總是能完美地識別車道標記,比如會混淆道路或自行車道上的密封裂縫和其他車道標記。
對於馬斯克的發言,正在調查此事的哈里斯縣第四分局警員馬克·赫曼表示,這是警員們第一次聽到來自該公司的消息。
赫曼稱,“如果他已經調取了數據,他還沒有告訴我們,我們正急切地等待獲取這些數據。”
赫曼反駁了馬斯克的說法,稱有目擊者的證詞:這兩名男子離開是為了試用自動駕駛功能,向朋友展示汽車如何能自己駕駛。
赫曼對路透社表示,德州警方周二將向特斯拉發出搜查令,以獲取周末發生車禍的車輛數據。
可以看出,特斯拉的Autopilot系統是Model S致命車禍事件的一個關鍵。事實上,Autopilot的使用此前已引起美國監管部門的關注。
美國國家公路交通安全管理局(NHTSA)上個月表示,正在調查近二十多起涉及特斯拉的事故,這些事故發生時,要麼涉事特斯拉汽車正在使用Autopilot功能,要麼可能一直在使用Autopilot功能。
被誇大的自動駕駛功能
事實上,Autopilot這項功能自推出起,就充滿了爭議。
特斯拉於2015年推出Autopilot功能。Autopilot本義是飛機的自動駕駛系統,批評者認為,特斯拉使用這個名字,充滿了誤導性,會讓司機誤認為特斯拉汽車有自動駕駛能力,從而放鬆警惕。而實際上,Autopilot只是輔助駕駛的功能。
最初,特斯拉在中國官網上也是使用“自動駕駛”這樣的字眼。而這也引發了質疑。
2016年8月初,一名中國特斯拉車主發生車禍。當時這輛汽車正處於“Autopilot”模式,但其未能避過停在左側的汽車,導致兩輛汽車損毀,但無人員傷亡。這是特斯拉自動駕駛被曝光的中國首例事故。
車禍發生後,該名特斯拉車主發微博詳述了車禍發生的過程,並投訴特斯拉公司誇大自動駕駛功能,誤導消費者。
特斯拉隨後在中國官網上用“自動輔助駕駛”這個詞替代了“自動駕駛”。
不過,據外媒報道,特斯拉在宣傳Autopilot時仍有所誇大,特斯拉在其網站上將Autopilot稱為“駕駛的未來”,就好像它是世界上最先進的自動駕駛系統。
其實並非如此。自動駕駛有6個級別,從L0到L5,L5是最高級別。Autopilot是L2級系統,美國交通部將其定義為“部分自動化”,要求駕駛員“始終保持對駕駛任務的投入,並時刻監控環境”。
就在上周六,馬斯克還曾宣傳該公司最近的一份安全報告。馬斯克在Twitter上表示,“現在,啟動Autopilot的特斯拉出事故的幾率比普通車輛低10倍。”
但美國權威雜誌《消費者報告》互聯和自動汽車測試負責人凱莉·芬克豪斯表示,特斯拉過去的數據並不準確,在沒有基礎數據的情況下也很難驗證。
芬克豪斯補充道,在報告中,特斯拉沒有說明系統出現故障但沒有撞車的次數,也沒有說明什麼時候司機未能接管車輛。
今年,特斯拉還將推出所謂的完全自動駕駛功能,可在大多數特斯拉車型上作為軟件升級,價格為1萬美元。但該技術遠未達到L5級自動駕駛,即“完全自動化”。
普林斯頓大學自主汽車工程系主任阿蘭·科恩豪瑟表示,“馬斯克的做法完全不負責任。”
科恩豪瑟稱,的確,在一些細則中,特斯拉說明了他們還沒有準備好(自動駕駛),但馬斯克已經向消費者售賣了汽車可以自己駕駛的夢想。“這不是一個遊戲。這是嚴肅的事情。”
過度依賴“自動駕駛”系統釀惡果
批評者認為,特斯拉多年來誇大營銷Autopilot系統的方式,助長了一些司機依賴、濫用該系統,從而導致了Autopilot相關事故增多。
在使用手冊上,特斯拉建議司機在使用Autopilot時,雙手放在方向盤上,並注意觀察但是,網絡上出現了許多視頻,稱有人在駕駛座上睡覺,或以其它不安全方式駕駛。一些特斯拉司機表示,他們在使用Autopilot時能夠不必將手長時間放在方向盤上。
美國監管機構的報告也證實了依賴Autopilot系統所帶來的惡果。
美國國家運輸安全委員會(NTSB)發現多起致命和非致命事故和Autopilot有關,根據NTSB的報告,這些事故都有一個共同點:司機過度依賴“自動駕駛系統”,但是在某些情況下系統是有缺陷的,在某些情況下它的能力並不如司機所想的那麼強,從而導致事故發生。以下案例均來自NTSB報告。
2016年,在佛羅里達州威利斯頓市發生一起車禍,車主駕駛的特斯拉Model S被一輛牽引車壓在下面造成司機死亡。報告稱, “特斯拉的自動車輛控制系統沒有設計成和識別出橫穿車道的卡車,也沒有判定即將發生碰撞。”
2018年,在加州山景城發生一起車禍,一輛Model X撞上了高速公路隔離帶,導致司機死亡。
報告稱,“車禍的可能原因是,由於系統限制,特斯拉Autopilot將Model X引導到了高速公路的分道角區,而駕駛員由於分心而缺乏反應,他可能正在玩手機遊戲應用,並且過度依賴Autopilot的部分駕駛自動化系統。”
2018年,在加州卡爾弗城發生了一起非致命性車禍。一輛Model S追尾停在車道上的消防車。報告稱,“可能的原因是,由於未注意到車輛的高級駕駛輔助系統,特斯拉司機對行車道上靜止的消防車未作出反應。”
2019年,在佛羅里達州德雷海灘發生了一起車禍,一輛Model 3從一輛牽引車下駛過,導致司機死亡。報告稱,“Autopilot沒有向駕駛員發出視覺或聽覺警告,讓他把手放回方向盤上。由於系統的設計限制,避撞系統沒有發出警告或啟動(自動緊急制動)。周遭環境超出了Autopilot的(操作設計領域)。”
據外媒報道,自Autopilot推出以來,在美國發生的9起涉及Autopilot的車禍中,至少有11人死亡。在國際上,又有7起事故,導致至少9人死亡。
美國政府或加強監管
接連發生的特斯拉Autopilot相關的事故,也引發了美國監管機構的反思。
今年2月1日,NTSB主席羅伯特·薩姆沃爾特致信美國交通部,批評自動駕駛系統安全標準不嚴,並特別提到特斯拉。
薩姆沃爾特表示,如果該部門在2016年佛羅里達州死亡事件發生後,要求特斯拉改進Autopilot的安全協議,2019年Model 3車禍致死事件可能就不會發生。
薩姆沃爾特還警告稱,“特斯拉正在公共道路上測試一項高度自動化的(自動駕駛)技術,但監管部門對其監督非常有限,這會給司機和其他道路使用者帶來潛在風險。”
NTSB還批評NHTSA對自動化車輛的監督方式“是錯誤的,因為它基本上是等待問題發生,而不是主動解決安全問題。”NTSB還表示,NHTSA“對自動車輛安全採取了一種非監管的方法。”
NTSB只能發布建議,要求NHTSA和特斯拉將Autopilot系統使用場景限制在該系統可以安全運行的道路上,並要求特斯拉配置一個更強大的系統來監控司機,以確保他們的注意力集中。
特斯拉和NHTSA都沒有採取行動,因此引起了NTSB的批評。
過去,NHTSA有權對汽車製造商進行監管,並能要求召回有缺陷的車輛。但由於擔心阻礙有前景的新功能的開發,NHTSA對部分和全自動駕駛系統的監管採取了不干涉的態度。
但自今年3月以來,NHTSA加強了對特斯拉的調查。不過,到目前為止,它一直依賴汽車廠商和科技公司自願遵循安全合規。
NHTSA上月表示,“隨着新政府成立,我們正在審查關於自動駕駛汽車的法規。”
監管機構的批評者表示,隨着自動化系統不斷向完全自動化邁進,法規(尤其是約束特斯拉的法規)早就該出台了。
去年12月,在前總統特朗普離任前,NHTSA曾就(自動駕駛相關)法規徵求公眾意見。美國時任交通部長趙小蘭(其管轄部門包括NHTSA)表示,該法規提案將解決安全問題,“同時不會妨礙自動駕駛系統的開發創新”。
但她的接替者皮特·布蒂吉格在國會面前表示,改變可能會到來。
布蒂吉格上月表示,“我想說的是,美國的政策框架還沒有真正趕上技術平台的進步,因此,我們打算對此給予高度關注,並在我們的權限範圍內盡一切努力。”布蒂吉格稱,可能會與國會合作解決這一問題。
研究自動化汽車的杜克大學電氣和計算機工程教授卡米斯表示,德州車禍會成為NHTSA(政策)的分水嶺。
她希望這次車禍能帶來改變,因為“特斯拉已經持有這麼長時間的免費通行證了”,是時候改變了。
(加美財經專稿,抄襲必究)
#特斯拉#、#自動駕駛#
作者:宋星
責編:Faye