馬斯克的自駕夢撞上現實:從工程師視角看 FSD 為什麼「還沒準備好」

歡迎參觀部落格~

一場不到 100 公里的挑戰,揭開自動駕駛的真相

幾乎每位科技迷都還記得,馬斯克在 2016 年那句豪語:「明年,特斯拉就能自駕橫越美國!」
九年過去了,這句話依舊懸在半空。
最近,兩名特斯拉鐵粉兼股東決定親身實測,開著最新的 Model Y、啟用 FSD(Full Self-Driving)系統,打算從加州一路自駕開到佛州,全程開直播證明馬斯克沒說謊。

結果不到 100 公里,車就撞了。
副駕早就看到前方有雜物,但主駕還在等 FSD 自動閃避。AI 毫無反應,撞擊發生,駕駛才緊急接手。懸吊全毀、螢幕報錯、挑戰結束。網友笑稱:「史上最短的橫越美國挑戰。」

但身為一名關注 AI 與系統工程的觀察者,我想說的是:這場撞車,其實是一場真實的技術體檢。
它揭露的不只是 FSD 的缺陷,而是整個「自駕科技」的現實邊界。

這個新聞挺吸引世界各地的眼球,除了各國電動車廠喜歡以此打臉馬斯克外,也有無數等看馬斯克笑話的人觀看,自己本身也覺得可惜,說實話自己也挺看好馬斯克的自駕技術,尤其從2016 年就開始期待,起初確實不好,但近些年隨著人工智慧發展,確實越發期待自駕實現的那一天。然而這影片確實直接打破了自己的期待,原來自動駕駛還離這麼遠啊。

首先必須向實驗者respect,因為明知要撞上了還是勇敢地不介入,真的需要勇氣。這事件間接說明了兩件事:FSD 的現狀:還不是「自駕」,而是「高階輔助」;人機信任陷阱:駕駛為什麼不接手



FSD 的現狀:還不是「自駕」,而是「高階輔助」
特斯拉的 FSD 核心,是一套基於深度學習的行為預測系統。它的目標,是用攝影機輸入的畫面去模擬人類駕駛的直覺,透過數據學習判斷道路環境、行人動態、甚至紅綠燈變化。馬斯克放棄雷達與 LiDAR,全押在「純視覺 AI」這條路上。

個人,單純個人覺得這想法很大膽,也很危險。因為人眼能理解「那是一個塑膠袋」或「那是一顆石頭」,AI 卻只能根據訓練資料猜。這次撞車事件中,FSD 之所以「沒閃避」,不是壞掉,而是根本沒辨識出那是威脅物。路上場景的組合千奇百怪,包羅萬象,即便有難以想像多的資料可以訓練,也很難將所有可能的包含進去



人機信任陷阱:駕駛為什麼不接手?
影片裡,駕駛明明坐在前座,卻選擇「等 FSD 自己處理」。這反映出一個比較令人擔憂的情況:當系統表現越穩定,人類越傾向放棄監督。

記得以前在學校時,有堂課教授就有舉例過類似的情況,這是一種「人機交互(HMI)」的設計悖論。系統越聰明,使用者越懶惰;但當 AI 犯錯,人類的反應時間卻永遠不夠補救。

特斯拉雖然在螢幕與介面上不斷提醒「請保持手握方向盤」,但真實駕駛多半把它當作形式。這不是懶惰,而是「信任感」過度。AI 給了人類「安全幻覺」,而幻覺往往比警告更強大。這次的事故,其實不是 AI 一個人的錯,而是人與機之間責任轉移的灰區。在半自動駕駛的過渡時代,我們既不完全掌握,也不完全放手,這種模糊狀態,本身就充滿風險。



但,儘管還是有很多問題,未來扔充滿期待

自己本身對於特斯拉的自駕系統扔事充滿期待,當然我也不認為如今的可靠度可以百分之百相信,畢竟路上的情況太多了,尤其台灣。自駕車不只是演算法問題,而是多系統整合挑戰:要整合攝影機影像、地圖精度、車聯網(V2X)、即時運算、法規與倫理決策。任何一環出錯,整體都會失效。

於工程師而言,每一次失敗都不是否定,而是樣本,都是更進步的機會。如今AI快速成長,我們確實無法把所有可能都寫進程式裡,但若AI 們教學相長,也許就能學得更徹底更廣泛,當然也大可以遇到判斷不出來的東西時就直接停下來。

自駕車的路還很長,AI 仍在學習如何「像人類一樣懂錯」。馬斯克的夢也許誇張,但他確實推動了整個產業往前。
可是我前兩個禮拜去三番市玩的時候

看到滿街都是自駕無人車耶

不過那是谷歌的
huang635555
很好奇,無人車多久清裡面一次
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!