Sinfield wrote:
tonybo...(恕刪)


個人推論後期Google 跟apple 應該聯合卷死市場
話說這次google 的更新算有感了

之前的表現真的很糟糕

但整體而言還是比不上open ai

如果以理組文組來比喻

Open ai比較偏文組,懂人話

Google 比較理組,講邏輯
Sinfield wrote:
tonybo...(恕刪)


轉貼
——-
前有虎,後有狼,OpenAI 心慌慌
Sam Altman 內部備忘錄流出,該備忘錄指出,OpenAI 執行長 Sam Altman 私下跟員工說,公司現在正面臨「艱困局面」和「財政困境」,而且在跟 Google 的競爭上,已經完全落後了。
Altman 在備忘錄裡直接稱讚:「Google 最近在各個方面都做得非常好,尤其是在預訓練模型這塊」。各種測試也看得出來,Google 的 Gemini 3 Pro 在推理和寫程式上,已經完全輾壓 OpenAI 的 GPT-5.1,OpenAI 的護城河已經完全被填平了。
記不記得 Bard 剛出來時在發佈會上直接答錯「向八歲小孩解釋登月」的糗爺樣?還記不記得大家說 OpenAI 即將取代 Google 搜尋引擎的言論?一切都好像沒發生過。
更驚人的是財務預期。
悲觀地說,OpenAI 到 2026 年的營收成長可能只剩 5–10%,對比 2025 年還是三位數成長、收入達到 130 億美元(但是也不夠花),這幾乎是踩煞車。同時,外界預估 OpenAI 到 2028 年可能出現高達 740 億美元的營運虧損,投資人能不能繼續買單,變成一個大問號。
備忘錄裡也提到,很多企業的 GenAI 專案卡在「試點 → 正式上線」這一段。某些大客戶因為成本、效益與算力限制在猶豫,有報告指出,高達 95% 的企業 AI 試點最後沒有真正實踐踐,變成昂貴的「閒置工具」如果企業實際用不起來、用不深,那背後龐大的算力投資就很難回本。
相反的,Anthropic 在企業內的表現是有目共睹,Claude 成為企業內部模型的首選,我在另一篇貼文中也說到 Anthropic 極可能是第一個實現獲利的 AI 頂部大廠。
然而很多人還是不想下車。OpenAI 內部還是堅持「算力為王」的路線,寧可怕算力不夠,也不怕算力太多用不完。總裁 Greg Brockman 此前曾表示:「我更擔心的是我們因為計算能力不足而失敗,而不是因為計算能力過強而失敗」。但現在的現實是,基礎設施燒錢燒很兇,企業導入卻沒有同樣速度成長,摩根士丹利的 Lisa Shallet 等分析師的警告也表達了類似的觀點,「超大規模資料中心及相關的資本支出增長了四倍,每年接近 4000 億美元」,但收入回報卻沒有相應增長。這中間的落差,就是 OpenAI 現在面對的生存壓力。
Altman 在備忘錄最後也坦承,OpenAI 雖然估值驚人,但「我們知道還有很多工作要做,只是我們正在努力追上去」。看到這裡,我自己最大的感想是,AI 從「神話期」走到「現實期」的速度,比大家想像中快很多。不管是 OpenAI 還是 Google、Anthropic,接下來真正能活得好的,應該是那些真的幫企業省到錢、賺到錢、提升效率的應用,而 Google 成功的絕對不會是單靠 Gemini 3.0 pro,生態系紅利將會是永遠花不完的提款機。
這幾天都
只要輝達拉上去了
就換google下去
不能就一起拉嗎..
都是AI呀

哥 怎麼看?

文章分享,FB:王伯達觀點

Cisco 花了 25 年才回到高點,Nvidia 會重蹈覆轍嗎?
思科 Cisco 的股價即將回到 2000 年 3 月的 80 元高點。
聽起來很勵志?但這花了整整 25 年。
更諷刺的是,即使 Cisco 的營收從 2000 年的 $19 billion 成長到 2025 年的 $57 billion(成長 201%),但它現在的市值只有當年高點 5,792 億美元的 52%。
為什麼?因為當年的本益比是 220 倍,現在"只"剩 30 倍。
這個故事,對現在的 Nvidia 投資人來說,特別值得警惕。
---
#2000年的Cisco:網路時代的鏟子
2000 年的 Cisco 是什麼地位?
它生產的網路設備(路由器、交換機)是當時網路時代必備的基礎設施。就像現在 Nvidia 的 GPU 是 AI 時代的基礎設施一樣。
當時 Cisco 的表現有多亮眼?
- 1998-2000 年營收成長率:31% → 43% → 55%
- 產品毛利率高達 65%
- 2000 年 3 月,市值達到 5,792 億美元,短暫成為市值最大公司
- 本益比 220 倍
媒體、分析師、投資人都瘋狂看好。有分析師甚至說:「Cisco 可能成為全球第一家市值破兆美元的公司。」
但就在 2000 年 3 月股價創下 $80 歷史高點後,一切都變了。
---
##崩盤的真相庫存失控
Cisco 股價在 2000 年這一年下跌超過 50%。
但在這一年它的營收成長率還高達 55%!
為什麼業績這麼好,股價卻崩盤?
答案在 2001 年揭曉:
營收成長率驟降到 18%,更嚴重的是,庫存完全失控。
看看這組數據:
- 1999 年:營收成長率 43% → 存貨增加 80%
- 2000 年:營收成長率 55% → 存貨增加 89%
- 2001 年:營收成長率 18% → 存貨增加 37%
存貨增速遠超營收增速。
從存貨周轉率也可以看出問題的嚴重性:
- 1998 年:9.47 次
- 1999 年:8.35 次
- 2000 年:7.14 次
- 2001 年:7.70 次
- 2002 年:5.38 次
存貨周轉率從 1998 年的 9.47 次,
一路下滑到 2002 年的 5.38 次,
代表商品銷售的速度越來越慢。
為什麼會這樣?
因為當時市場需求熱絡,Cisco 的生產時程又長,
下游客戶擔心缺貨,開始重複訂購。
但 Cisco 沒有察覺這種狀況,誤判需求,持續擴大生產。
結果到了 2001 年,千禧蟲危機過後,企業投資大幅縮水,需求驟降,Cisco 手上堆滿了賣不出去的庫存。
最後的結果:
- 打消 $22 億美元的庫存
- 裁員 18%
- 毛利率從 65% 跌到 49%
- 上市 11 年來首度虧損
股價在 2001 年再跌 47%。兩年內,Cisco 股價只剩高點的 20%。
---
#Nvidia2025相似的擔憂
現在的 Nvidia,也開始出現類似的質疑聲音。
最近市場關注的焦點是:應收帳款與存貨數據的變化。
不過從實際數據來看,雖然絕對數據是大幅上升了
但比率並沒有嚴重惡化,甚至還略為改善
應收帳款周轉率(從 DSO 推算)
- 2021 年:6.86 次
- 2022 年:5.78 次
- 2023 年:7.05 次
- 2024 年:6.09 次
- 2025 年:5.66 次
趨勢:下降。這可能代表客戶付款放緩或延遲。
存貨周轉率
- 2021 年:4.48 次
- 2022 年:4.53 次
- 2023 年:2.99 次
- 2024 年:3.18 次
- 2025 年:4.25 次
趨勢:2024-2025 明顯改善。
這些數據到底代表什麼?Nvidia 會不會重蹈 Cisco 覆轍?
---
#Nvidia不是Cisco
先說好消息。Nvidia 和當年的 Cisco 有幾個重要差異:
差異 1:估值合理很多
- Cisco 2000 年:本益比 220 倍
- Nvidia 2025 年:本益比 44 倍
Nvidia 的本益比只有 Cisco 的 1/5。
但說實話,44 倍仍不便宜,
但遠沒有到當年 Cisco 網路泡沫瘋狂的程度。
差異 2:存貨控制改善中
- Cisco 1999-2000 年:存貨周轉率 8.35 → 7.14(惡化)
- Nvidia 2023-2025 年:存貨周轉率 2.99 → 4.25(改善)
Nvidia 的存貨管理正在好轉,不像 Cisco 當年開始惡化。
差異 3:護城河更深
- Cisco:網路設備後來大宗商品化,競爭者湧入
- Nvidia:CUDA 生態系統建立了強大的護城河
---
#競爭格局正在改變
雖然 Nvidia 不是 Cisco,但也不是完全高枕無憂。
最大的風險是:競爭格局正在改變。
當年 Cisco 的困境是「網路設備大宗商品化」,
現在 Nvidia 面臨的是「科技巨頭開始自研晶片」。
從「買鏟子」到「自己造鏟子」
- Google:自研 TPU,Gemini 表現亮眼,不再完全依賴 Nvidia
- OpenAI + Nvidia 體系:相對表現較弱,反而凸顯 Google 自研晶片的優勢
- Grok (xAI):特斯拉已經自行研發 AI 晶片
- Meta:早已投入自研 AI 晶片
- Amazon (AWS):推出 Trainium 和 Inferentia 晶片
- Microsoft:傳出與 AMD 合作開發 AI 晶片
為什麼大家都想自己做?
1. Nvidia 毛利率太高(約 70-80%)
2. 市佔率太高(AI 晶片市場 80%+)
3. 高毛利 + 高市佔 = 肥美的市場
4. 這些公司需要更客制化,更符合自己需求的產品
就像當年 Apple 脫離了 Intel,自研 M 系列晶片。
現在科技巨頭不想被 Nvidia 綁架,紛紛自研 AI 晶片。
Nvidia 的成功,正在吸引所有人來搶食這塊大餅。
短期來看,雲端巨頭仍需大量採購 Nvidia GPU(因為需求太大,且 GPU 更具泛用性)。
但中長期來看,一旦自研晶片成熟,Nvidia 的市佔率可能下降,毛利率可能被壓縮。
這正是當年 Cisco 走過的路。
---
## 投資啟示:估值永遠重要
Cisco 的故事告訴我們一個殘酷的真相:
即使基本面持續成長,高估值也會讓你套牢 25 年。
那麼,Nvidia 會重蹈覆轍嗎?
我認為 Nvidia 不是 Cisco,但也不是完全沒風險。
關鍵在於:密切關注應收帳款、存貨、營收成長率的變化。
如果這些指標開始惡化(就像 Cisco 2000-2001 年那樣),
那就是警訊。
但更重要的是,不要盲目相信「這次不一樣」。
而且,一家好公司不等於一筆好投資。
最後關鍵還是在於價格。
---
數據來源
- Cisco 歷史數據:多篇財經媒體報導與分析
- Nvidia 財務數據:公司財報與市場分析
- 存貨與應收帳款周轉率:根據公開財報計算
---
Nvidia 會是下一個 Cisco 嗎?還是這次真的不一樣?
擦鞋童 wrote:
這幾天都只要輝達拉上...(恕刪)

華西街:這樣大家才會上鉤,它們聖誕節、年底跨年才可以多發點獎金
股價一下跌,就一堆鬼故事跑出來了
============================
Meta傳出正洽談支出數十億美元採購Google研發的AI晶片,也就是專為AI推論打造的「張量處理器」(TPU),消息激勵Google母公司Alphabet股價在周一(24日)盤後交易大漲超過3%,輝達(Nvidia)則一度下跌2.7%
根據科技新聞網站「The Information」引述一位知情人士說法報導,Meta正在洽談2027年在旗下資料中心使用這些名為TPU的晶片。此外,Meta明年可能會向Google的雲端部門租用晶片。
若達成協議,可望幫助Google的TPU成為輝達AI晶片的替代選項,而Meta目前使用的是輝達的GPU(繪圖處理器)。不久前,Google已與另一家AI模型業者Anthropic達成協議,將提供多達100萬顆TPU。
The Information報導指出,這項業務也可能大幅推升Google的營收。根據一位聽到市場傳言的消息人士透露,Google Cloud部門的一些主管曾表示,這項業務可能讓公司搶下輝達年營收的10%。依照輝達營收規模計算,這代表Google每年可增加數十億美元營收。
Google吸引客戶採用TPU的方式之一,是強調它們比昂貴的輝達晶片便宜。輝達晶片的高價,使得像甲骨文(Oracle)等其他雲端服務供應商面臨高成本,難以靠出租輝達晶片的算力,產生良好的毛利率。
不過,目前輝達仍在AI加速器市場中占據主導地位,而且可能會想辦法阻止Google擴大在AI晶片市場的企圖。輝達的霸主地位也推升其收入與現金流,讓它能進一步投資於OpenAI和Anthropic等客戶。
Google和Meta的代表並未立即回應置評請求。
消息出爐後,Alphabet股價在周一盤後大漲3.3%,報每股329.10美元,延續收盤時上漲高達6.28%的漲勢;輝達則一度重挫2.7%至177.71美元。

devine
好慘的輝達投資人
devine
不過訓練晶片可以混著用?
擦鞋童 wrote:
股價一下跌,就一堆鬼...(恕刪)


就我在業界的經驗
以台積電而言
我良率高成本低
為何我要便宜賣???
我只要比我的敵人有競爭力就行
品質與服務(量大有貨可以出滿足time to market)
台積電的價格還是比三星貴還是一堆人買...

所以google要推出TPU外賣
當然可以搶 NVDA的客戶
但是要賣便宜
洗洗睡吧...

況且TPU是屬於訂製化GPU
Google一定會出猴版TPU以維持競爭力...
客製化的猴版TPU與通用的GPU配CUDA生態系
當然會搶NVDA客戶
但是餅會一直大
NVDA還是會成長
只是從獨佔變成寡占而已...
【TPU 會終結輝達霸業?黃仁勳說 GPU 其實更便宜是真的嗎?】
Google 的突破不是 GPU 的終點,而是算力需求新一輪爆發的起點。
每當 Google 發表新一代 TPU 晶片,市場總會響起一樣的聲音:TPU 能訓練出更強大的模型、更便宜、更省電,輝達(NVIDIA)似乎離「吃鱉」不遠。這種論調在過去幾週再次出現,特別是當 Google 展示自家模型 Gemini 3.0 Pro 的強大時,許多人急著宣告 GPU 時代結束。
但實際情況可能正好相反。Google 的領先不但沒有削弱輝達的地位,反而在結構上成為輝達的大利多。原因不在晶片,而在於這場競賽本身再次證明:「Scaling Law」仍然有效。
■ Scaling Law 的續命,是輝達最好的消息
Google 在最新一代模型中證明,只要增加訓練規模,模型效能依然能持續提升。這代表「投入更多算力就能產生更好 AI」的邏輯仍成立。這一發現的意義遠超技術層面 - 它重新啟動了整個市場對算力的信心。
一旦 Scaling Law 被驗證,所有想追上 Google 的科技巨頭都別無選擇,只能加碼算力投入。微軟、亞馬遜、Meta、Anthropic、OpenAI 等公司沒有 Google 那樣成熟的自研晶片與垂直整合能力,唯有依靠輝達的 GPU 才能快速擴張訓練與推論能力。
換言之,Google 的技術突破不會削弱 GPU 市場,反而會刺激整體 GPU 採購。輝達賣的不只是晶片,而是算力擴張的「通用通道」- 只要產業還相信規模帶來優勢,輝達的需求就不會減少。
■ 外界誤解了 TPU 與 GPU 的效率比較
外界對 TPU 與 GPU 的比較,經常停留在單顆晶片的價格與功耗上。這樣的比較方式忽略了 AI 系統的本質:最終衡量單位不是瓦數,也不是美元,而是「每單位電力能產出的 token 數」——也就是生產效率。
從單顆晶片的理論數據來看,Google 的 TPU v6e 在 FP16 精度下提供 926 TFLOPS 的算力,而輝達的 GB200 約為 5000 TFLOPS。若只看每瓦效能(每瓦 TFLOPS),TPU 以 2.64 優於 GPU 的 1.85,效率高出約 42%。表面上,TPU 看似更效率更高更划算。
但這種比較忽略了實際應用的精度設定。FP16 已非主要推論模式,市場真正的主流是更低精度的 FP4 或 FP8。輝達的 GPU 可支援到 FP4,而 TPU 目前僅支援至 FP8 或 INT8。這一差異在推論效率上產生了反轉:在相同耗電下,輝達系統能產出約 40% 更多的 token。
也就是說,若以「AI 工廠」的角度衡量 - 每單位電力所能生成的輸出量,GPU 的系統效率並不輸 TPU。當整個產線以「token 產出」為核心指標時,輝達的整體性價比反而更高。
■ 資料中心的現實:空間、能耗與收益的經濟平衡
若將比較範圍從單顆晶片擴展到資料中心層級,輝達的優勢更為明顯。GPU 的運算密度更高,在同樣空間內能塞進更多算力,對租金與冷卻成本昂貴的雲端機房而言,這是關鍵的經濟因素。
假設一個資料中心擁有 100 個機櫃,若全部配置 TPU v6,在 FP16 精度下可達一定算力輸出;但若改裝成輝達 GB200,在相同空間與精度下,能產出約三倍的 token 數量,耗電則增加約四倍。然而,GB200 還能降低精度至 FP4,這讓 token 產出進一步提升至六倍,而耗電仍維持四倍水準。
結果是:在同一單位耗電條件下,使用輝達 GPU 的資料中心能比 TPU 機房多產出約 50% 的 token。
更重要的是,AI 推論的 token 銷售是「正毛利」的業務。每多消耗一倍電力,就意味著多創造一倍收入與更高的邊際獲利。從經濟效率的角度看,空間與能耗的限制下,填滿輝達 GPU 的資料中心,仍是更高報酬的投資組合。
■ GPU 雖貴,但整體性價比不低
的確,GPU 單價更高、耗電更多,但若以系統運行效率與產出計算,整體「每 token 成本」並不比 TPU 差。更重要的是,GPU 的通用性與軟體生態 - CUDA、TensorRT、以及龐大的開發者工具鏈,讓它在非 Google 的世界中,仍是不可取代的基礎設施。
TPU 是為特定架構與內部工作流程最佳化的封閉系統;而 GPU 是所有其他雲端供應商與模型公司的開放平台。這種「可擴展性與通用性」才是 GPU 的真正價值來源。當 AI 生產活動從單一公司內部實驗室擴散到全球雲端市場時,輝達仍然是唯一能即時擴充的算力供應者。
■ Google 的進展不是輝達的危機,而是市場的強心針
每一次有公司展示更高效的模型訓練,都會觸發市場對「AI 繼續擴張」的信心循環。Google 這次的成功,不是 GPU 的終章,而是下一輪算力投資的開場。
對輝達而言,這意味著更多的 GPU 將被部署在全球資料中心,用來支撐所有追趕者的野心。AI 產業最終不會變成「誰的晶片最省電」的比賽,而會是「誰能最有效率地擴張算力」的比賽。
而在這場比賽中,輝達依舊是唯一能讓整個產業「即刻放大」的基礎設施提供者。
擦鞋童 wrote:
這幾天都
只要輝達拉上去了
就換google下去
不能就一起拉嗎..
都是AI呀


所以 你應該買台積電才對 買輝達幹嘛?

不管是輝達的GPU強大 還是谷歌的TPU強大..









最後還不是都要跪求台積電給產能...





難不成谷歌跟輝達自己能生產晶片喔...
文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 42)

今日熱門文章 網友點擊推薦!