Google 加碼第七代 TPU 布局
隨著 AI 大模型快速發(fā)展,谷歌(Google)、英偉達(NVIDIA)、元宇宙平臺公司(Meta)等科技巨頭紛紛加大 AI 加速器投入。其中谷歌早在 2015 年便啟動專屬 AI 芯片研發(fā),通過自研張量處理單元(TPU)降低對英偉達圖形處理單元(GPU)的依賴,強化 AI 算力自主布局。
作為谷歌專為 AI 訓練與推理打造的特殊應用集成電路(ASIC),TPU 在大型神經(jīng)網(wǎng)絡訓練、生成式 AI 快速推理等場景中表現(xiàn)突出。其矩陣運算效率、低功耗特性均優(yōu)于傳統(tǒng) GPU,且已深度整合谷歌云(Google Cloud)與 Gemini 生態(tài),當前 Gemini 模型 75% 的運算任務由 TPU 承載。
近期谷歌云推出第七代 TPU “Ironwood”,專為生成式 AI 推理優(yōu)化,支持 9216 顆液冷芯片,效能較前代提升 10 倍,每瓦效能提升近 2 倍。
從供應鏈結構來看,TPU 覆蓋芯片制造、先進封裝、服務器機柜、PCB 及高速材料等多個環(huán)節(jié),核心依賴先進制程代工與高端封裝技術。法人分析指出,臺積電憑借 7 納米、5 納米制程工藝,穩(wěn)居谷歌 TPU 芯片代工龍頭地位;創(chuàng)意電子作為谷歌 Axion CPU 制程設計合作伙伴,將在 2026 年迎來產(chǎn)能放量。
隨著谷歌加速 Gemini 生態(tài)與數(shù)據(jù)中心部署,TPU 需求有望持續(xù)釋放,覆蓋芯片代工、封裝、伺服器代工等領域的相關供應鏈企業(yè),具備長期發(fā)展?jié)摿Α?/p>
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。










