創造無限商機,北美中文網與您共同前進
推薦車行
Signature Mazda
最新新聞
左轉撞車 大溫司機贏了ICBC的官司
前Uber自動駕駛負責人:我開著...
油車爆改電車?溫哥華1元課程火了
秘魯一總統候選人遇車禍身亡.....
中國Robotaxi,與特斯拉、Waymo...
車主注意了,這幾個新聞看得錢包疼
車能開,電池廢了 第一批電動車...
二手車變被盜車 加國家庭損失4萬
天車春季延誤 博覽線周末服務調整
消防員和路人施救無功 加國4人...
油價飆升 特斯拉車主這波又贏麻了
趕在史上最大IPO前行動,特斯拉...
美軍波音KC-135墜毀 機上人員...
馬斯克又一創舉恐顛覆電動車產業
GPS全廢了!荷莫茲海峽千船簇擁...
選擇語言:  
English | 簡體 | 繁體
會員區  
no avatar
歡迎您 游客
登錄
免費注冊

[優步] 前Uber自動駕駛負責人:我開著特斯拉FSD撞車了

請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
IT之家 3 月 18 日消息,Mozilla 首席技術官、前 Uber 自動駕駛汽車部門負責人拉菲 · 克裡科裡安(Raffi Krikorian)3 月 17 日在《大西洋月刊》發表長文,描述了他駕駛特斯拉 Model X(FSD 模式)時所發生的一起嚴重車禍,並從專業角度剖析了特斯拉 FSD 的核心問題。

克裡科裡安曾執掌 Uber 自動駕駛團隊,負責訓練安全駕駛員如何在系統失效時及時且正確幹預。在他領導該部門的兩年間,Uber 的早期試點項目保持著零受傷的記錄。

此次事故發生在一次尋常的周日出行。克裡科裡安駕車送兒子參加童子軍活動,行駛在灣區的住宅區街道上,而這條路他已經走過數百次。當時,特斯拉處於 FSD 模式,系統一直平穩駕駛,直至意外發生。


當 Model X 駛入一個彎道時,FSD 似乎突然迷失方向,方向盤毫無預兆地劇烈抖動,車輛開始減速。克裡科裡安立即抓住方向盤,但已來不及挽回。車輛隨即撞上混凝土牆,當場報廢。克裡科裡安遭受腦震蕩、頸部僵硬,頭痛持續數日,所幸後座的孩子安然無恙。

盡管擁有頂尖的專業背景,FSD 還是“坑”了他。克裡科裡安寫道,他最初只在高速公路上使用 FSD,因為車道線清晰、交通模式可預測。熟悉後又開始在普通道路上使用,發現效果不錯,漸漸成為習慣。

此次事故發生前,他的手一直放在方向盤上,按照特斯拉的要求保持警惕。他指出,FSD 實際上“訓練”了他去信任它。事故發生後,出現在保險報告上的名字是他,而非特斯拉。在現行法律框架下,這是也是所有 FSD 事故的共同點:特斯拉 FSD 系統被歸類為 Level 2,駕駛員始終需承擔全部責任。

克裡科裡安還提出一個關於特斯拉數據處理方式的尖銳問題。車輛持續記錄駕駛員的手部位置、反應時間和視線軌跡,特斯拉在事故後常利用這些數據將責任指向駕駛員。而要求獲取自身數據的駕駛員往往只能收到碎片化信息。在佛羅裡達州一起裡程碑式的過失致死案中,原告方被迫雇傭第三方黑客從事故車芯片中恢復出了關鍵證據,而特斯拉聲稱數據無法找到。

克裡科裡安還對“監督式”自動駕駛根本缺陷進行了分析。他的核心論點是:特斯拉要求人類監督一個專門設計得讓監督顯得毫無意義的系統。正如他所言,一台不可靠的機器會讓人保持警惕,一台完美的機器不需要監督,但一台近乎完美的機器卻會因此而制造陷阱 —— 讓駕駛員信任它到足以忽視監督的程度。這也是目前幾乎所有 Level 2 輔助駕駛車輛事故中的共性 —— 在事故真正發生到自己頭上之前堅持認為輔助駕駛功能完美可靠,甚至開車睡覺。


心理學家將這一觀點稱之為“警覺性衰減”:長期監督一個近乎完美的系統令人厭倦,而厭倦導致走神 / 不重視。在輔助駕駛系統退出後,駕駛員往往需要 5~8 秒才能重新集中精神,緊急情況下根本來不及反應並接管。

克裡科裡安援引美國公路安全保險協會的研究:使用自適應巡航控制僅一個月後,駕駛員看手機的可能性增加六倍以上。特斯拉雖然警告 FSD 用戶不要自滿(自以為是),但 99% 場景下的流暢表現反而會引發這種自滿情緒。


他還引用了兩起廣為人知的事故來說明這種“不可靠”。2018 年山景城事故中,蘋果工程師沃爾特 · 黃駕駛的特斯拉在沖向混凝土隔離帶前有 6 秒預警,但他從未觸碰方向盤。同年亞利桑那州坦佩的 Uber 事故中,傳感器在 5.6 秒前檢測到行人,但安全駕駛員在最後不到 1 秒才抬頭。

在這起事故中,克裡科裡安自己確實采取了行動,但他需要在最後一秒的時間內克服長期訓練出的信任慣性、從乘客狀態瞬間切換回駕駛員狀態,可以說幾乎不可能完成。事故車日志也證實他打了方向盤,但仍無法在事故前的 1 秒中完成逆轉。

根據克裡科裡安的描述:特斯拉先讓駕駛員對 FSD 產生好感,再用數月流暢表現削弱其警惕性,導致駕駛員對這種“實際上並非 100% 可靠的輔助駕駛功能”產生心理依賴,最後在出問題時搬出服務條款將責任歸咎於駕駛員 ——FSD 沒出問題時特斯拉獲得贊譽,出問題時駕駛員全責。

克裡科裡安還特意拿比亞迪舉例。2025 年 7 月,比亞迪宣布將為其自動泊車功能導致的事故兜底 —— 無需保險理賠,不影響駕駛員記錄。盡管案例有限,但這表明車企與駕駛員分擔責任是一種選擇,並非不可能。

這家最好!股市開戶分批買入大盤股指基金
您的點贊是對我們的鼓勵     還沒人說話啊,我想來說幾句
上一頁12下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡
    您可能也喜歡
    當前評論
    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *:
    安全校驗碼 *:
    請在此處輸入圖片中的數字
    The Captcha image
      (請在此處輸入圖片中的數字)

    頁面生成: 0.1171 秒 and 3 DB Queries in 0.0012 秒
    Powered by https://www.westca.com

    加西網為北美中文網傳媒集團旗下網站