fedora wrote:
這個仍是用現實世界的 "無窮變數" 邏輯在思考,沒有跳出那個框框侷限
老闆決策不通過 ----(回一開始)---> 繼續整理資料。
決策10秒雖然快,但一但不通過,前面的計算心血全部白費,得重頭再來一次。
所以效率就低落了。
看來你似乎自行求出解答了?
非常好

這討論就能打住了.
平行運算再快, 回到條件判斷式, 碰到類似的問題, 一樣無解
所以最後的問題其實不是平行運算而已
這也不是多核心多工, 就能把前面白費工化成沒有白費.
平行運算能短縮很多有關資料整理與分析計算的時間
但不意味著全面多核多工化, 很多東西回到條件判斷式跟最單純的運算
還是一樣問題.
甚至更單純, 100件工作如果能發給100個人作理論上就是最快的
但是分給 1000人作會不會更快?
那就要看工作能不能再細拆
就好像這文章的開頭
5nm 已經只剩下 10個原子寬度, 接近物理極限
等縮到只剩下 1個原子寬度時, 到底還有沒有辦法把原子一起拆了做得更小?
原子的大小目前是人類要組成物體時能拆得的最小絕對單位
那麼每個程式能拆出來的最小絕對可計算分工單位為?
這個部份就是程式能不能多工拆分, 到底能拆成多少份, 給多少計算單位去運算, 效率會多好的差異
一以概全是不良的說法.
故得證.
決策這個部份是很難平行化運算的, 所以不是所有的程式跟工作都一定要去適合與變成多核心平行運算
