隨著 AI 資本支出維持高位且商業化壓力日益增加,市場對於 AI 運算的關注點正發生深刻轉移。高盛在最新的 AI 晶片研究報告中指出,Google(GOOGL.US) 與博通 (AVGO.US) 共同開發的 TPU 正迅速縮小與輝達 (NVDA.US) GPU 在推理成本上的差距。
從算力競賽轉向成本效率
高盛報告揭示,AI 晶片競爭的核心評價體系正在從「誰算得更快」轉向 「誰算得更便宜、更可持續」。透過建構「推理成本曲線」,高盛分析了不同方案在折舊、能耗及系統利用率下的真實成本。
數據顯示,從 TPU v6 升級至 TPU v7,單位符碼 (token) 的推理成本大幅下降約 70%。這使得 TPU v7 在絕對成本上已與輝達的 GB200 NVL72 基本持平,甚至在部分測算情境中更具優勢。
系統工程能力與成本
高盛認為,TPU 能實現如此顯著的降本,並非依賴單一技術,而是 系統級優化能力的集中釋放。這包括更高帶寬與低延遲的網路互聯、HBM 內存的集成、台積電 (TSM.US) (2330-TW) 的 CoWoS 先進封裝技術,以及機架級解決方案在密度與能效上的提升。
目前,Google 內部已廣泛將 TPU 用於 Gemini 模型的訓練與推理;外部客戶如 Anthropic 也向博通下達了高達 210 億美元的訂單,預計相關產品將於 2026 年中交付。
產業格局:GPU 與 ASIC 的分工與競爭
高盛指出,儘管 TPU 表現強勁,但輝達仍掌握「上市時間」的領先優勢,其產品迭代速度 (如 GB300 及未來的 VR200) 與 CUDA 軟體生態系仍是維持客戶黏性的關鍵護城河。相比之下,AMD(AMD.US) 與亞馬遜 (AMZN.US) 的 Trainium 方案在代際降本幅度上約為 30%,目前的單位推理成本仍明顯高於輝達與 Google。
不過,高盛也看好 AMD 機架方案的後發優勢,預期其 MI455X 在 2026 年底有潛力實現顯著降本。
從投資角度看,高盛維持對輝達與博通的「買入」評級,認為兩者最能直接受益於 AI 資本支出。未來 AI 產業將形成明確分工:GPU 繼續主導訓練與通用算力,而客製化 ASIC 則將在規模化、可預測的推理負載中持續滲透。當 AI 進入「每一個 Token 都要計算回報」的階段,算力競爭終將回歸經濟學本質。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網