鼓勵兩位碰個面。
以 以色列與中科來說, 設計理念適用在自動化砲塔。
以影片中所得資訊, 環景P不需要對人眼座標系與大地座標系做貼合A。
也就是將環景窗搬到眼鏡或是頭盔上。
這與F35或是AH64這兩個系統需求完全不一樣(以是否貼合來說)。
而假設高解析影像FOV已經涵蓋火炮俯仰, 則系統簡化至1D頭部方向追蹤。
以此基礎上中科將環景P與火炮指向高解析畫面分鏡分流再簡化,以減少延遲穩定附加系統設計。因為可以拆開來獨立。
兩個都是現成東西。
人只是決定是否射擊,因此適合無人砲塔,或全自動化無人載具。
而有貼合需求中,頭部3D定位追蹤又分為機體座標,或是頭部獨立座標。
AH64屬於機體座標, f35是獨立座標。
就以上若還不了解, 就不用再看。 因為你沒在這業內,不是人生污點。 就離開去閒聊就好。
現在討論一個議題, 到底要每個人都可以對環景周遭都瞪大眼睛看, 還是一個人負責就好?
如果一架載具, 裡面可以12個TFT 大家一起找碴話聲, 但是由一個負責轉頭或是電門搖砲轉大眼睛跟砲去找瞄,決定射擊。
這種架構好,還是 一個人戴頭盔東轉西轉與自己決定射擊好?
在飛機與直升機上沒得選,只好你就任命做多功。 自動化無人車當然也沒得選。
再戰車上或是多人仔具上還這樣設計由一人多工, 我想這真是劃時代設計。
因為過往的訓練與操作任務都要更動。 雲豹是雙人砲塔, 所以各司什麼事情就不多說。
我想陸軍不准裝有他道理。 但是乾脆弄一人仔具他就有必要性。
我很想批評工程師跟陸軍要的老是不一樣, 你老是弄一個自以為好用卻要人顛倒走路的東西, 難怪吃飯都會兔出來。
還有,目前的東西要跳上飛機,還非常遙遠。 基本架構不同。
macross_sato wrote:
學術分析沒輸贏,但...(恕刪)
拜託你不要拿我和那隻比,他也配學術?

一個裝置在機體上面任由你校正的感測系統,竟然說拼接影像困難,隨便抽一個民用的軟體和多鏡頭相機都可以拼接影像,拜託不要玩我。我的時間很貴的。
機器人視覺,3D影像分析與投射,多鏡頭測距的3D建模,我在25年前就在央圖爬一堆相關論文,那隻他有認真看過幾篇正式的文章和技術文件嗎?
影像的微積分程式,物件化過程就是一個完美的拼接軟體,這廝他有一點點影像處理的基礎?不要開玩笑了。
立體感更是莫名其妙,立體感的困難都是投射在頭盔端而不是在影像輸入端,他根本就完全不懂。
連一個比較技術性需要邏輯拼湊的描述,都寫的七拼八湊錯字一堆的,怕是腦袋已經不清楚,玩到極限了。

3D vision helmet 資料可以給駕駛看,給射擊手看,只要有錢,甚至裝填手沒事的時候也可以看,為什麼你認為會只有一個人看?這就是環景技術的優點。
為什麼頭盔只能限定一個??為什麼你們認為會需要精密角度?
這世界上的無人砲塔,包括了艦艇使用的射擊系統都是同軸瞄準光學具,只有用同軸瞄準具才能校正砲彈飛行曲線與距離的關係。你所謂的精準角度是給誰用的?
Search Tracking 和 Target就不是一樣的東西。
P, stitch 這種實作過程技術面我不探討, 我只管設計目的跟需求是否吻合。
當年IDF模擬機在處理stitch 時美商報價 約略150萬台幣單套。
等處理完成時, 成品上竟然只用不到100元台幣的東西處理掉。沒什麼數學。
工程師以為很基本可以做出來的東西, 但是在規範與教案上是有限制性。 而這限制性往往看似簡單卻很難量化。
戰鬥任務三人各負責多少, 則只能各別給他多少資訊。 這要量化就很麻煩,所以都已習慣繼承。
那個環景,與多螢幕, 是一樣東西。
甚至你得把頭接近特定螢幕, 或是管子伸到眼前,都是一樣東西, 只是幾種座標系貼合方式不同。
但是資訊顯示上, 有另一種問題是, 多少東西之內, 是有用處。 多少東西是無用成為行為干擾, 反而是產品好壞關鍵。
歐洲在這項目非常嚴格, 美國是軍用品上很嚴格,商用亂七八糟。
每個人都有一隻眼鏡, 跟攤開一堆TFT在技術上差異很大, 但是環境資訊顯示目的一樣。
所以我才會說適合當自動化仔具。 但是不適合多人任務仔具。
因為今天你的仔具已經是多人, 所以就不適合。 如此而已。
若兩位約時間定孤之, 我會提供供品的。
macross_sato wrote:
是,對不起,你們兩...(恕刪)
Stitch你不談,他在廢話的時候你怎麼不出來講呢XD.
他在廢話FOV,廢話stitch這些東西很難的時候你怎麼不出來說兩句 XDD
這種粗淺的接圖層次如果在他嘴砲中那麼困難,那些做影像引擎的不就一整年都笑翻掉。人家在接圖還要處理雙邊影像光影與色溫差異。一個簡單的無縫接圖到底是要怎麼樣才會被吹到山上去?
對 我不是你們業內的,因為我學的東西明顯比你們更上游也更廣。
所以拜託不要和我說什麼應用層次的東西做不出來。那真的是笑掉人家的大牙。程度差太遠了。對先進系統設計的人來說,物理層次的系統整合永遠是最末端的。你們講的那一堆對中科院那一票核心的人來說,中科的人聽完會有任何感覺嗎。
話說太多也沒用,聽不懂的人是你們。在這個系統裡面,我只想關注 FPA sensor。
好啦,不要氣急敗壞, 我不敢罵 老闆大, 這邊的人都說他有精神疾病, 我怕罵一下他找我去新竹定孤支,我才不要。
至於VR, 實際最難實現的是戰車應用。
功夫裡最難的就是快。 剛好戰車應用就是。
我想你自己若是用FPGA做串流就知道, 要做影像定時不延遲很容易。
但是若規格中有一項目:
輸入影像與輸出影像延遲時間必須小於XXXX
那個XXX在解析度越高, 同步的鏡頭越多時越難處理。 單隻當我沒說。
所以在拼接時, 竭盡所能不作演算,只做事前校正貼合。 基本沒數學。 基本上去央圖看的那些paper好像都沒什麼有用。
可能我也看不懂,我不學無術我都忘了......
會說戰車最難,因為車外與鏡面上的畫面要同步,不然就會看到生前最後一幕。
好啦,別生氣罵我, 我會承受不了, 我心跳好快, 要死了, 有人說我不學無術....
我是草莓,一被罵就森77.
macross_sato wrote:
因為過於簡單化沒有兩個座標系貼合, 與校正資訊, 所以拿去做自動化的無人火力載具OK。
要上飛機還很拼, 因為沒處理的東西太多,就因為顯示部分延遲過多了。..(恕刪)
我們公司有專門研究Low latency video transmission。中科院,趕快來找我! 我可以解決latency問題!
如果那套系統沒真的用在甲車上就可惜了,會產生所謂的latency與low frame rate的原因,我可以猜出哪個整合的人是用現成貨兜出來的東西,所以出現這個狀況,可能因為中科院沒給這個計劃足夠的經費去開發一個專用系統的錢,以現在民間的高規格影像晶片,只要有錢,絕對做的出來,latency應該只有20-30ms左右。一切都是錢!



























































































