久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 網絡與存儲 > 設計應用 > 內存墻瓶頸:AI計算引爆內存超級周期

內存墻瓶頸:AI計算引爆內存超級周期

作者: 時間:2026-02-05 來源:TrendForce 集邦咨詢 收藏

AI 推動高帶寬內存(HBM)與第五代雙倍數據速率內存(DDR5)需求激增,于 2025 年第三季度觸發超級周期。容量短缺迫使設備廠商要么漲價,要么降低規格,這一周期何時會終結?

在過去幾十年里,半導體行業以摩爾定律為核心驅動力,持續提升晶體管密度、優化芯片性能并降低單位計算成本。隨著行業邁入 AI 時代,縮放定律(Scaling Law)成為新目標 —— 開發者通過擴大 AI 模型規模、增加訓練數據量和計算資源投入,實現模型性能的可預測提升。因此,行業焦點已從單個芯片的計算能力轉向整體系統級性能。

在此背景下,內存帶寬與數據傳輸效率的局限性愈發凸顯,高帶寬內存(HBM)的戰略重要性近年來急劇提升。隨著 AI 工作負載逐漸從訓練轉向推理,云服務提供商(CSP)加速 AI 基礎設施投資與服務器部署,進一步推高了 DDR5 等服務器級 DRAM 的需求。

受此影響,三大 DRAM 制造商持續將先進制程產能向高端服務器 DRAM 和 HBM 傾斜,限制消費級 DRAM 供應,催生了新的內存價格超級周期,并將影響蔓延至消費電子市場。

AI 計算趨勢遭遇 “” 挑戰

當前主流基于 Transformer 架構的深度學習大型語言模型(LLM),其計算性能嚴重依賴內存訪問。訓練過程中,海量數據集、權重和參數,以及推理階段生成每個令牌(token)時所需的鍵值緩存(KV cache),都需要被反復調用。當處理器計算能力增長速度顯著超過內存帶寬和數據傳輸能力時,大量處理時間將耗費在等待內存數據上,而非實際計算操作 —— 當系統性能受限于數據傳輸速度,便會出現典型的 “” 問題。

近年來,GPU 等 AI 芯片的計算能力增長速度遠超內存帶寬和數據傳輸效率。據《AI 與內存墻》研究顯示,AI 模型計算能力每兩年增長 3 倍,而內存帶寬僅增長 1.6 倍,互聯帶寬約增長 1.4 倍。因此,大多數計算任務的瓶頸在于內存訪問和通信效率,而非原始處理能力。

1770256499364504.png

圖 1:峰值硬件浮點運算能力(FLOPS)與內存 / 互聯帶寬的發展趨勢

(注:硬件浮點運算能力 20 年間增長 60 萬倍,每兩年增長 3.0 倍;DRAM 帶寬 20 年間增長 100 倍,每兩年增長 1.6 倍;互聯帶寬 20 年間增長 30 倍,每兩年增長 1.4 倍)

來源:加州大學伯克利分校 Amir Gholami 等人(2024)《AI 與內存墻》、TrendForce 集邦咨詢

從理論建模角度,這種結構性失衡可通過 “屋頂線模型(Roofline Model)” 解釋。深度學習模型主要由矩陣乘法運算構成,總計算量以浮點運算次數(FLOPs)衡量。

屋頂線模型提供了計算理論可達性能的框架,公式如下:

P = min (π, β × I)

1770256540914958.png

圖 2:屋頂線模型:計算能力增長下內存受限區域的擴大

(注:計算能力提升使拐點向右上方移動,提高最大性能的同時,擴大了內存受限區域)

來源:TrendForce 集邦咨詢

該模型表明,系統性能受限于最大可達性能(π)和最大內存帶寬(β),拐點(Knee Point)代表達到最大可達性能所需的最小運算強度。

隨著 AI 芯片計算能力持續提升(π 增大),若內存帶寬斜率未相應提高(β 保持不變),拐點將向右上方移動,使更多計算任務處于內存受限區域。換句話說,計算能力的持續增長會加劇內存對性能提升的限制 —— 這也是 AI 巨頭們的競爭焦點從單純提升浮點運算能力,轉向 “內存軍備競賽” 的核心原因。

HBM 成為 AI 計算提速的關鍵解決方案

隨著大型語言模型規模持續擴大(參數突破萬億級),單芯片已無法承載完整模型計算,轉而演進為多 AI 加速器組成的集群架構。集群中 AI 加速器數量越多,每個加速器內部及芯片間每秒需傳輸的數據量就越大。

在這種架構下,數據傳輸挑戰進一步延伸至芯片間(橫向擴展)乃至數據中心層級間(跨域擴展),不僅造成嚴重的內存墻瓶頸,也使芯片間帶寬的重要性日益凸顯。除了 InfiniBand 與以太網的競爭,HBM 已成為 AI 加速器的最優內存選擇。

HBM 通過硅通孔(TSV)和先進封裝技術將多片 DRAM 芯片垂直堆疊,并與 GPU 集成在同一封裝內。相較于傳統平面 DRAM,HBM 大幅縮短數據傳輸路徑,具備 1024 位超寬接口,提供遠超傳統 GDDR 的內存帶寬。

預計 2026 年量產的 HBM4,總帶寬將達到 2TB/s,接口寬度翻倍至 2048 位,同時保持 8.0Gbps 以上的數據傳輸速率 —— 這使得 HBM4 無需提高時鐘頻率即可將數據吞吐量翻倍,進一步提升 AI 芯片在高并行、數據密集型工作負載下的性能。

AI 巨頭的規格軍備競賽引發 HBM 需求激增

HBM 在性能、輸入輸出(I/O)數量和帶寬上的持續迭代,已成為 AI 加速器規格升級的核心支柱。近年來,英偉達、AMD、谷歌等企業持續推動其 AI 芯片向更新一代 HBM 遷移,單芯片 HBM 堆疊層數和總內存容量顯著提升,直接拉動 HBM 需求增長。

根據 TrendForce 集邦咨詢基于 2025 年 AI 芯片出貨量的估算,HBM 需求同比增長將超 130%;2026 年,在 B300、GB300、R100/R200、VR100/VR200 等下一代平臺普及,以及谷歌 TPU、亞馬遜 AWS Trainium 加速向 HBM3e 遷移的推動下,HBM 消費量將繼續增長,同比增幅仍超 70%。

表 1:英偉達、AMD、谷歌 AI 芯片的 HBM 采用趨勢

品牌

產品名稱

HBM 規格

HBM 堆疊層數

HBM 總容量(GB)

英偉達

H100

HBM3 8 層堆疊

5

80


H200

HBM3E 8 層堆疊

6

141


B200

HBM3E 8 層堆疊

8

192


GB200

HBM3E 8 層 / 16 層堆疊

8/16

192/384


GB300

HBM3E 12 層堆疊

8/16

288/578


VR200

HBM4 12 層堆疊

16

576


VR300

HBM4E 16 層堆疊

16

1024

AMD

MI30OX

HBM3 12 層堆疊

8

192


MI325X

HBM3E 12 層堆疊

8

288


M1350

HBM3E 12 層堆疊

8

288


MI400

HBM4 12 層堆疊

12

432

谷歌

TPU v6e

HBM3E 8 層堆疊

4

32


TPU v7p

HBM3E 8 層堆疊

8

192


TPU v8e

HBM3e 12 層堆疊

6

216


TPU v8p

HBM3e 12 層堆疊

8

288

來源:TrendForce 集邦咨詢(2026 年 1 月)

AI 推理崛起推動 DDR5 需求增長

隨著 AI 計算重心逐漸從訓練轉向推理,其應用場景向終端用戶快速滲透 —— 預計到 2029 年,AI 推理將成為 AI 服務器需求的主要驅動力。

1770256593179636.png

圖 3:AI 服務器需求預測:訓練 vs 推理(2025F–2029F)

來源:TrendForce 集邦咨詢(2025 年 12 月)

據麥肯錫報告預測,到 2028 年,AI 推理的功耗將超過訓練和非 AI 工作負載,成為數據中心最大的功耗來源。這一轉變將推動硬件架構和能源分配的全面變革。

為應對這一趨勢,行業正在重新評估計算各階段的硬件配置策略,這對超大規模數據中心運營商的供電和網絡架構長期規劃具有重要意義 —— 核心目標是在優化性能成本比的同時,有效降低總擁有成本(TCO),體現出推理需求對整個數據中心基礎設施的系統性重塑。

推理需求下的 DDR5 配置升級與價格趨勢

訓練和推理對內存的需求存在差異:

  • 訓練階段:需反復處理海量數據集,對內存帶寬要求極高 —— 帶寬不足會導致計算單元閑置,無法發揮最優性能,因此通常采用搭載 HBM      的 AI 加速器,避免內存受限瓶頸。

  • 推理階段:內存需求因實際計算環節而異,可分為兩部分:

    1. 預填充(Prefill):系統一次性處理完整的用戶輸入提示,將文本拆分為令牌并執行大規模矩陣運算 —— 此階段計算密集,但對內存帶寬敏感度較低,可采用高性價比的 DDR 或 GDDR 內存配置。

    2. 解碼(Decode):模型反復訪問權重參數和 KV 緩存,逐令牌生成響應 —— 計算需求下降,但內存需求顯著上升,內存訪問延遲直接影響每個令牌的生成速度,仍需 HBM 或 HBF 等高頻寬、大容量內存配置。

云服務提供商正通過擴大通用服務器部署以滿足增長的推理需求,DDR5 憑借性能與成本的平衡成為最優內存選擇。這一趨勢促使北美云服務提供商從 2025 年下半年開始,計劃在 2026 年的服務器采購中大幅提高 DDR5 部署比例,進一步推高 DDR5 需求與價格。

根據 TrendForce 集邦咨詢分析,2025 年第四季度,服務器級 DDR5 與 HBM3e 的合約價格快速靠攏 ——HBM3e 原本價格是服務器級 DDR5 的 4-5 倍,預計到 2026 年底,價差將縮小至 1-2 倍。

隨著標準 DRAM 盈利能力逐漸提升,部分供應商開始向 DDR5 轉移產能,為 HBM3e 價格上漲留出更大空間。

表 2:HBM 與 DDR5:技術與應用對比

項目

HBM

DDR5

設計架構

通過 TSV 垂直堆疊 DRAM,與 GPU 共封裝集成

平面單芯片 DRAM,可通過標準   DIMM 模塊擴展

總線寬度

超寬(每堆疊 1024 位)

較窄(32 位 ×2)

帶寬

極高(TB/s 級別)

較高(GB/s 級別)

總內存容量

較低(與 GPU 共封裝,容量固定)

較高(可通過 DIMM 插槽擴展)

成本

極高

相對較低

功耗

較低

較高

主要應用場景

AI 模型訓練及推理(解碼階段)、高性能計算(HPC)

AI 模型推理(預填充階段)、通用服務器、個人電腦

來襲,消費電子首當其沖

2025 年第三季度,AI 與通用服務器的內存需求扭轉市場趨勢,引發供應短缺。三大 DRAM 制造商將產能優先分配給 HBM 和高端服務器 DRAM,但晶圓廠產能有限,2026 年供應難以大幅擴張。與此同時,這擠壓了通用服務器和消費級 DRAM 的供應,推動整體 DRAM 價格上漲,標志著新的到來。

TrendForce 集邦咨詢預計,2026 年第一季度內存價格將再次大幅上漲,內存成本在智能手機、個人電腦等消費終端物料清單(BOM)中的占比快速上升。消費電子制造商受沖擊最嚴重,直接影響出貨量 —— 智能手機和筆記本電腦品牌為控制成本,不得不降低規格或推遲升級,其中 DRAM 因占總成本比重較大,受影響最為明顯。

總體而言,中高端 DRAM 容量將向市場最低標準靠攏,升級節奏放緩,而所有消費電子市場的低端細分領域將遭受最大沖擊。

消費電子利潤危機,出貨量全面疲軟

TrendForce 集邦咨詢于 2025 年 11 月首次下調 2026 年全球智能手機、筆記本電腦和游戲機產量預測;但隨著內存價格持續上漲,12 月底結合供應鏈動態再次修正所有終端設備預估:

  • 智能手機:2026 年產量同比增速從最初預期的 0.1% 下調至 - 2%,12 月底進一步降至 - 3.5%,2026 年      1 月中旬再修正為 - 7%。TrendForce 集邦咨詢分析,即使是盈利能力相對較強的 iPhone 機型,2026 年第一季度內存占 BOM 成本比重也將顯著上升,迫使蘋果重新考慮新設備定價,甚至可能減少或取消舊機型的計劃折扣。對于面向中低端市場的安卓品牌,內存已是核心賣點之一,其 BOM 成本占比本就較高 —— 隨著價格飆升,2026 年低端智能手機將回歸 4GB 內存配置,品牌需調整定價或供應周期以減少損失。

  • 筆記本電腦:2026 年出貨量從先前預期的同比增長 1.7% 下調至 - 2.8%,后進一步調整為 - 5.4%。蘋果、聯想等供應鏈整合度高、定價靈活的品牌,應對內存漲價的空間更大;但低端消費級筆記本品牌難以轉嫁成本,且受處理器和操作系統要求限制,進一步降規難度較大。若第二季度內存漲價趨勢未緩解,TrendForce 集邦咨詢預測 2026 年全球筆記本電腦出貨量同比降幅可能擴大至 10.1%。

  • 游戲機:2026 年出貨量預測從先前的同比下降 3.5% 下調至 4.4%。任天堂 Switch 2、索尼 PS5、微軟 Xbox X 等主力機型,內存成本占 BOM 比重已從過去的約 15% 升至 23%–42%,硬件毛利率嚴重受壓。2026 年,三大廠商將難以預留促銷空間或延續此前的以量取勝策略,可能進一步抑制出貨勢頭;若內存市場狀況無改善,全球游戲機滲透率預計將進入階段性停滯。

表 3:智能手機與筆記本電腦 DRAM 容量規格趨勢

產品類別

市場細分

調整后規格

此前規格

說明

智能手機

高端

12~16 GB

12~16 GB

16GB 普及節奏放緩


中端

6~8 GB

6~12 GB

12GB 將逐步退出中端機型


低端

4 GB

4~8 GB

受供應商產能限制及成本壓力,回歸 4GB

筆記本電腦

高端

16~64 GB

16~64 GB

主流出貨集中在 16GB


中端

8~16 GB

8~16 GB

以 8~16GB 為主,出貨向   8GB 傾斜


低端

8 GB

8 GB

短期內難以進一步降低

來源:TrendForce 集邦咨詢(2025 年 12 月)

“突破內存墻” 的軍備競賽:2026 年與漲價展望

與 2016–2018 年由通用服務器需求驅動、持續約 9 個季度的內存超級周期不同,本輪周期的核心驅動力是 “突破內存墻”—— 隨著 AI 芯片計算能力增長速度遠超內存帶寬,系統性能日益受限于數據傳輸效率,行業競爭從原始計算性能轉向內存軍備競賽。

本輪周期由 AI 與通用服務器需求共同推動,為突破內存墻瓶頸,供應產品結構變得高度復雜,涵蓋 HBM、DDR5、企業級 SSD 等高端內存產品,同時影響標準內存的供應穩定性。

在產能持續受限的背景下,本輪內存超級周期預計將延續至 2026 年,市場已進入賣方市場 —— 制造商持續上調合約價格、管控產能擴張,維持高位定價。2026 年 DRAM 價格預計上漲超 70%,短缺與漲價趨勢或將持續。


評論


技術專區

關閉