Alphabet(GOOGL.US) 旗下 Google 宣布推出第八代張量處理單元 (TPU),首度將人工智慧 (AI) 模型訓練與推論運算拆分為兩款專用晶片,藉此提升效能並強化在 AI 硬體領域對輝達 (NVDA.US) 的競爭力。兩款新晶片預計將於今年稍晚上市。
Google 指出,隨著 AI 代理 (AI agents) 需求快速成長,市場對訓練與推論運算的差異化需求日益明顯,因此決定將兩者分離設計。Google 資深副總裁暨 AI 與基礎設施首席技術長阿明・瓦赫達特表示,專用化晶片將更能滿足不同工作負載需求並提升整體效率。
競爭對手輝達亦持續推進新產品布局。該公司今年 3 月表示,其即將推出的晶片將結合以 200 億美元收購 AI 晶片新創 Groq 的技術,使模型能更快速回應使用者問題。儘管 Google 本身仍是輝達的重要客戶之一,但同時也透過 TPU 向雲端客戶提供替代方案。
全球科技巨頭正加速投入客製化 AI 晶片開發,以提升效率並滿足特定應用場景需求。蘋果 (AAPL.US) 多年來已在 iPhone 自研晶片中整合神經網路引擎;微軟 (MSFT.US) 於今年 1 月推出第二代 AI 晶片;Meta Platforms(META.US) 則於上週宣布與博通 (AVGO.US) 合作開發多款 AI 處理器。
Google 在 AI 晶片領域布局較早,早在 2015 年即開始使用自研處理器運行 AI 模型,並於 2018 年對外提供雲端租用服務。同年,亞馬遜 AWS 推出用於 AI 推論的 Inferentia 晶片,並於 2020 年發布訓練用 Trainium 處理器。市場研究機構 DA Davidson 分析師於去年 9 月估計,TPU 業務結合 Google DeepMind AI 部門的價值約達 9000 億美元。
儘管競爭日趨激烈,目前仍無企業撼動輝達在 AI 晶片市場的主導地位。Google 此次亦未直接與輝達產品進行效能對比。不過公司表示,新一代訓練晶片在相同價格下,效能較去年 11 月推出的第七代 Ironwood TPU 提升 2.8 倍,而推論晶片效能則提升約 80%。
在記憶體架構方面,輝達即將推出的 Groq 3 LPU 將大量採用靜態隨機存取記憶體 (SRAM),該技術亦被申請上市的 AI 晶片公司 Cerebras Systems 採用。Google 新推出的推論晶片 TPU 8i 同樣導入 SRAM 設計,每顆晶片配備 384MB SRAM,為 Ironwood 的三倍容量。
桑達爾 · 皮查伊表示,此次新架構旨在提供高吞吐量與低延遲,以支援數百萬個 AI 代理同時運行,並維持成本效益。
隨著應用擴展,Google TPU 採用率持續攀升。公司指出,Citadel Securities 已利用 TPU 打造量化研究軟體,美國能源部旗下 17 個國家實驗室亦全面採用基於 TPU 的 AI 協同科學家系統。此外,AI 公司 Anthropic 已承諾採用數 GW 等級的 TPU 算力,顯示市場需求持續升溫。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網