[自駕車]新的藍海時代自駕車的軟硬體的應用與開發,又有新的廠商開始逐鹿中原引領風騷了~

will7000 wrote:
我猜tesla只是暫選不全用光達 tesla會不會只是根據市場狀況作出策略妥協
如果用光達 他不用賣車了
也沒辦法在車廠脫穎而出(雖然目前雷聲大 雨點小)並去炒熱自動駕駛 甚至無人駕駛話題
(那些lidar公司某個程度得感謝tesla)
如果只是google的無人駕駛 市場還不會熱這麼快

而且如果你是lidar solution新創公司 我想你第一個車廠目標一定是同為科技出身的tesla
傳統車廠是保守公司 你要他去接受一家新公司新產品 要花很長很長很長時間
大部分他只相信他的1st tier供應商
其他想賣進去難如登天 比你要賣進apple還難

所以不是只有技術問題 還有商用問題
車廠圈 你東西便宜 換一個新技術 他會想半天 考慮半天 要1st teir去試試

4.從一個身為消費者立場
你叫我一次從自己開車到無人駕駛L4 L5.. 心理壓力極大
但是如果在人車不多 天氣好路段 甚至高速公路 我會樂意使用自動駕駛試試
知道光達會更好判斷人物但除非今天tesla的自動駕駛不斷出錯 有人受傷 出人命
不然我不認為tesla的策略錯誤 先把自己養大再加上去或整個轉過去都來得及...(恕刪)


基本上
您的問題先從技術面來回答
有光達與無光達差在甚麼地方

Tesla的solution大概只是ADAS的加強版而已
也就是想用L3的技術來推L4
我想這是MUSK的賣點
但技術層面來說差很大

無光達
光靠攝影鏡頭與雷達
"比較"沒有景深 (雙/多攝影鏡頭不是不能算出景深)
如果偏向平面的判別
那多久會撞到?
這就牽涉到景深
還有如何建立3D的景象
也就是過去與現在的自駕車與其他人車的動態相關位置???
然後推估未來的碰撞可能性
MUSK急著就想號稱有自駕車的功能
但限制很多
如果只是打著ADAS的加強版來推
那就合理很多了

MUSK著眼於現在
但L4/5著眼於未來
也就是Google一直在練功的原因
MEMS type solid-state LiDar要賣進Tesla
我想還沒有Google(Waymo)容易
因為Waymo就自己搞了~

Waymo 在2017年2月宣布,將自駕車最關鍵的元件光達成本降9 成,有利於自駕車量產普及。
法新社: 光達(LiDAR)被譽為自動駕駛之眼,堪稱自駕車最昂貴的元件,Google 母公司Alphabet 旗下自駕車公司Waymo 近期宣布,將自駕車最關鍵的元件光達成本降9 成,有利於自駕車量產普及。

我在2年前就一直在注意 MEMS type LiDar的發展
因為以微機電來說
這又是一個藍海
MIT與Berkeley的MEMS大師都拿到funding研發LiDar

至於業界:

我看好的大廠英飛凌(Infineon)在2016 年收購荷蘭半導體設計公司Innoluce 並取得其所研發微型雷射掃描技術後,目前正在開發MEMS的LiDAR晶片,可望降低光達系統與自駕車的成本。

美國3D 光達技術新創業者TetraVue,獲鴻海、三星等投資1,000 萬美元,將有助於該技術進入自駕車市場。
(人家鴻海跑得很快的)

甫於2017 年美國消費性電子展(CES)上獲得創新獎的Quanergy,對於光達(LiDAR)產品的未來需求看好,執行長Louay Eldada 宣布2017 年就會讓固態光達量產,積極搶攻自動駕駛技術關鍵零件市場。
2014 年5 月,Quanergy 獲得來自三星電子(Samsung Electronics)風險投資、Tesla 創始人及清華企業家協會天使基金的種子投資;12 月則取得A 輪融資3,000 萬美元。
2015 年著名的車廠一級供應商Delphi,收購了Quanergy 部分股權做為策略性投資,兩間公司的工程人員都在研發雷射雷達系統;2016 年7 月,Quanergy 獲得9,000 萬美元B 輪融資,將用這筆資金來擴大產量。
Quanergy 自動駕駛技術開發的合作車廠,則包括了賓士(Mercedes-Benz)、現代汽車(Hyundai)、日產雷諾(Nissan-Renault),搭載Quanergy 光達的車輛預計最快會在2018年上市。

這幾家的MEMS type LiDar背後支持這都大有來頭,都有可能為自己的系統開發出光達

從一些消息來看,大概2025-2030才有比較成熟的L5自駕車
以長遠來看,不到10年後就有了~

Tesla很急並沒有用
因為還不是成熟的系統用簡配版就馬上要現在推出
當然問題很多
MUSK只會把研發人員逼走

Google與其他電子大廠是想搶未來的主導權
汽車大廠是怕未來主導全被搶走,落得像Android手機一樣的紅海市場~

至於您說的消費者的心態
我想車廠首先會打盈利市場
美國的長途運輸市場量很大
有的是練兵的地方
即使不了解光達,但對程式運算邏輯有一些粗淺認識的人,都可以理解,要處理有限數量的雷射掃描線束所要做的運算量,遠遠低於靠影像辨識再來建立輪廓特徵、再來建立3D場景的運算量。況且,兩者建立3D場景的數學難度也是差異巨大的。

說個偏樓的話題,我是根本不相信目前連一隻蒼蠅都沒辦法比的AI視覺,可以勝任有時連人眼都可能疏忽或誤判的瞬息萬變路況。
況且,人類有判斷預測行為特徵的能力,當前面一台車的動態跟平常不太一樣時,有經驗的駕駛可以在一秒鐘之內就預判出前方駕駛可能是三寶(只是車子抖了一下),立刻採取預防性駕駛。當自動駕駛沒辦法聰明到這種程度時,任何計算的資源都是要節省的,因為當程式判斷出前方車輛一定會影響到本車時,可能允許剎車或閃避的時間,只有人類開車的一半了。



打鐵匠 wrote:
即使不了解光達,但...(恕刪)


謝謝您在影像處理與point cloud的運算量差異的解釋

也有新創公司也號稱用鏡頭就可以有類似光達的3D動態建模:

匈牙利新創企業AImotive 顛覆一般的想法,結合普通攝影機和人工智慧系統(AI),大幅降低自駕車的成本。

根據electronicsweekly.com 報導,AImotive 宣稱可以把普通汽車變成自駕車,成本大約只要6,000 美元。

AImotive 公司網站表示,AImotive 旗下自駕車系統aiDrive,可應用於任何類型的汽車,屬於自駕最高等級5,全天候、全駕駛環境皆通用,採用神經網路技術(neural network),透過對周圍環境的深度理解,做出高度安全和舒適的駕駛決策。

AImotive 在Google 總部所在地加州Mountain View 設立海外辦公室,並申請在當地路測。AImotive 自駕車採用4 部魚眼攝影機監控車側,2 部立體攝影機監控車前和車後,甚至還有4個重要引擎,分別為識別引擎、定位引擎、動力引擎和控制引擎。

識別引擎基於細分模型和距離估測模型,透過像素精準度的卷積神經網絡(CNN),來收集並處理感測資料。該引擎能夠辨識100 多種物體,包括客車、行人、自行車、機車、動物、路面,甚至單憑1 部攝影機即可估算距離。這款識別引擎能夠即時運行複雜的分類演算法,都是多虧神經網路技術、平行圖形處理器設計和深度學習技術(deep learning)。

定位引擎善用3D 地標數據來強化傳統地圖資料,確保精確自我定位和導航,同時把車載記憶體需求降至最低,可支援任何常規導航系。

定位引擎會把定位導航資料輸出給動力引擎,動力引擎再結合對周遭環境的預測,決定什麼是正確行駛路徑,同時適應各種駕駛文化和環境。該動力引擎還能辨識緊急情境,即時採用次佳行駛路徑,以確保駕駛人和行人的最大安全。

aiDrive 亦可應付低層次制動指令,例如煞車或加速,這些都是控制引擎的功勞。控制引擎負責把預先選擇的駕駛路徑翻譯之後,告知自駕車本身。

由於小弟不是學軟體的,只能貼消息給大家參考~

johanneschuang wrote:
真的一定要用lidar嗎?
24GHz/77GHz的毫米波雷達應該更有機會吧
成本差太多了...(恕刪)


下圖是Quanergy的CEO在Stanford的PPT (網路上抓來的)
比較三種的差異
如果大大對於毫米波雷達熟悉的話
麻煩補充,感恩~




NQQegg wrote:
謝謝您在影像處理與point...(恕刪)

N大客氣了,我真的只是亂猜的,畢竟萬變不離其宗。
其實心裡很矛盾,既關心科技的發展,但興奮過後冷靜思考,就覺得美好世界還沒這麼快來臨。
您提供的資料真的很棒,非常受用,一般的報導不會這麼深入。
NQQegg wrote:
幾年前聽到自動駕駛...(恕刪)


從那張圖去看, 再怎麼看 NVIDIA 都是贏面最大.

自動駕駛未來要爆發, 就是 Lidar 或這類似功能的元件必須降低成本到一定的程度, 無論是 MEMS type LiDar 或者 AImotive 的 3D場景運算. 而無論未來是靠哪種, 軟體或硬體方式來降低成本, NVIDIA 都能作為運算核心.

以 Google 來說, 如果循 Android 相同的操作模式, 它研發 Lidar 相關專利, 提供作業系統與大數據平台的話, 那就是靠專利授權和軟體賺錢, 這段台灣幾乎賺不到. 而硬體的話, 台灣的汽車業不像手機代工這麼發達, 能夠幫 Google 代工做汽車.

覺得可能還是找 NVIDIA 相關供應鏈(TSMC, 矽品...). 再來就是拆解 Lidar, 看裡面的一些元件是不是台灣有在作, 甚至未來是否有能力代工整個 Lidar (鴻海?).
NQQegg wrote:
下圖是Quanergy...(恕刪)


直接節錄重點的PPT











































打鐵匠 wrote:
況且,人類有判斷預測行為特徵的能力,當前面一台車的動態跟平常不太一樣時,有經驗的駕駛可以在一秒鐘之內就預判出前方駕駛可能是三寶(只是車子抖了一下),立刻採取預防性駕駛。當自動駕駛沒辦法聰明到這種程度時,任何計算的資源都是要節省的,因為當程式判斷出前方車輛一定會影響到本車時,可能允許剎車或閃避的時間,只有人類開車的一半了。
...(恕刪)


人類的即時應變能力不會比電腦強
行為不太一樣時程式也會知道
不過電腦不會進行危險駕駛

在前面的Google的Youtube中Chris就有提到程式每秒數千次的預測
而人類無法計算出
時速在100, 90, 80km/h的速度下要多久才能煞停

程式有些不常見的事物還需要deep learning
如同紙張飄過是否要煞車這種事~

光達是360度的3D建模
連後面都可以預測
從歷史軌跡到目前來判斷未來軌跡...

不過道路的變數太多
10年內在美國應可以
不過台灣路窄車多還有機車亂鑽
要導入L4/5可能要更久...

NQQegg wrote:
下圖是Quanergy...(恕刪)


看來三種方案各有所長
但是
重要的是
各有所短
所以從L5自駕車完美安全性需求的角度來看
目前僅整合兩種方案的自駕系統
(如攝影機與光達整合)
應該都無法達到L5的要求
也許整合三種系統
各取所長,並補其短
才是未來的方向
例如
霧中行駛,鏡頭與光達及派不上用場
此時雷達就能補上

當然
如果這些零組件的成本能降低
可能十倍還不太夠
也許需要降低至五十倍至百倍
才有辦法大量商品化
登記一下
最近的新聞是TESLA 跟 AMD 合作自駕晶片
樓主不知看法為何

謝謝
文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 9)

今日熱門文章 網友點擊推薦!