fatfellow wrote:沒有 stereo vision 你怎樣去量物件的距離跟大小? 請參考《Autopilot》AK談論AP開發細節 (2020/02)不需光達,以單一鏡頭的影像就能準確判斷周遭環境的「深度」(距離)
小人物櫻木 wrote:請參考《Autop...(恕刪) 它的判定是用無數張物件畫面來預測物件的距離跟大小基本上就是用無數的畫面來訓練後面的軟體這個問題最大的盲點就是一旦攝像頭受到干擾它沒有任何一個備用系統可以互相驗證而且光達本身的頻率跟功效比較不收陽光的影響你可以直接掃描物件的大小跟速度為什麼需要浪費後段運算功能?是可以做出類 L5 的功能但可靠度是達不到標準的
小人物櫻木 wrote:請參考《Autop...(恕刪) https://scale.com/blog/is-elon-wrong-about-lidar看得懂英文可以讀一下就可以知道用 stereo camera 來預估 point cloud data 是一件多蠢的事
我個人覺得大部分人對於自駕車都有點太過嚴苛其實開車並不是一件這麼困難的事情實際上也是有眼睛看不清楚的老人或邊開車邊滑手機的屁孩在開車不管是攝影機還是光達, 開車能力都遠超馬路三寶吧我覺得可以用目前道路上能接受的安全度作為參考, 訂出一個合理的安全標準不必去追求極致的安全, 以現有的清況去提升個50%或100%, 都會是個進步至於各家要用什麼樣的技術去達到就各憑本事了, 最後再由市場機制來決定誰能留得下來
306XR wrote:我只看到了用鏡頭方案...(恕刪) 門外漢真的不說話不會顯示你的無知第一雷射筆的頻率是多少?要不要去看看再去看一下光達的頻率是多少再來跟我說傷眼第二光達打的速度比你用 2D 轉 3D 運算跟誤差快又準的多而且固態光達可以快速的對單一物件放大 掃描都給你 scale.com 的資料了還在哪裡亂說話不覺得煩跟無聊
306XR wrote:我只看到了用鏡頭方案(恕刪) 其實是看用在什麼地方。Points Cloud Data 也不是什麼新技術,早在20年前,Siggraph 就已經很多paper提出了,他就是一個資料儲存技術而已, 所以如果是用來建立3D地圖,那麼用什麼都沒差,因為不是即時建立,都是得把資料送上雲端,再經由AI做比對後矯正真正的地圖,以現在或是未來的趨勢,這資料都會是open 的,共享的。開放給各家去使用。就跟google map一樣。至於自動駕駛部分的話,抓的是每個物件的bounding box,不是每個物件的 surface points,所以怎麼快速判斷物件的分類與定義每個物件的bounding box,才是重點。光達有他的物理限制在,舉例來說,目前低價的都是以線型排列然後做一個傘型逐步掃描,所以要夠快,你掃的傘型區域速度要夠快,而且距離越遠,精細度得細分到多少度以下才夠也是個問題,這部分目前的物理特性跟價格都需要克服,才能真的取代鏡頭的。使用鏡頭的最大好處價格不用說,另外大量的open source 可以使用也是他的優點。缺點就是,在影像辨識的演算法不夠全面時候,會有誤判的可能。所以相信後續的發展,應該會是兩者並用。長期發展的話應該會是以apple iPad pro那種陣列式高密度的光達為主吧,不過首先可能得克服價格跟能耗吧。不管怎麼樣,特斯拉目前的系統的確是不太可能做到100%的正確性,但是已經能非常有效且大幅度的提升駕駛的方便性,以及大幅降低人為的誤判,那就已經是成功了,要不然等其他家擠牙膏式的一點一點的放東西,再十年搞不好能給你到LV3就已經不錯了。想想那幾家傳統車廠,光是一個ACC就放的不甘不脆了。