Cavendish Lab wrote:
拍照大知道Shanaka Anslem Perera這個人嗎?他昨天對輝達的財報指指點點,彷彿黃仁勳都在說謊,掩蓋輝達的產品其實沒有賣得那麼好的事實。
當然沒聽過。看了一下他的文,應該是空頭總司令。
不過他的說法有一部份,關於輝達是否是AI的必需品的邏輯,
其實是有利於AMD的:本來就不是必須用輝達。
但是不用輝達不代表AI不需要算力。
當然AI的發展不見得就是堆算力,
事實上它更需要的是算法的改進。
當年Transformer的論文一出,世界振動。
而下一個打破界限的論文又會是有多大的影響力?
但算法的突破至少是以五年為單位的。
所以光靠堆算力是目前沒有算法的唯一可行之路。
以AI的歷史來看,從 AlexNet 開始,算力和算法一直都是同步的。
算法需要算力的支持,沒有算力的支持,
Transformer 也出不來那個驚人的效果。
而目前更好的算法還在追求更好的智能,
而非降低算力的需求,至少五年內是看不到的。
所以對 GPU 算力的增長,在未來五年還看不到盡頭。
目前專家小模型的能力離真正商用還有一點距離,
堆算力的路還長得遠。
如果專家小模型能用了,
大家的PC都應該要有本地的APP可以使用。
以目前最多人在用的MS Copilot 來說,
大部份的算力還是由雲端提供。
目前在PC等級的設備上跑LLM,大概要花一萬美元才勉強能用。
但隨著PC的持續發展,LLM 應該在十年內可以在一般人的PC上執行,
不過如果AI算力再堆下去,十年恐怕還算樂觀了點。































































































