號稱專為AI需求研發的ZAM真的能干掉如日中天的HBM嗎?
AI基礎設施競賽如火如荼,如果說針對AI的處理器和加速器市場還有不同的競爭者瓜分蛋糕,那么AI所需要的存儲方面基本上是HBM技術一家獨大,三大存儲器廠商賺得盆滿缽滿。集邦咨詢預測,2026年全球存儲器市場的營收總額將達5516億美元,按照樂觀的估算全球半導體市場規模預計在1.18萬億美元左右,這意味著存儲器市場的營收可能占據全球半導體市場的一半左右,什么才是半導體市場的第一大主力不言而喻。
隨著全球 AI 算力競賽加速,真正的瓶頸已不再是 GPU 架構,而是存儲器的物理極限。HBM 產能仍被三星電子、SK 海力士、美光嚴格掌控。供應緊張、定價權集中、擴產周期緩慢,導致 2024—2026 年 AI 供應鏈持續出現結構性失衡:“算力充足,存儲受限”。這并非短期周期性問題,而是由單一主導技術路線造成的結構性鎖定—— 當高帶寬存儲器等同于 HBM時,供應鏈控制權自然高度集中。
有暴利的地方自然就會有競爭,作為AI產業早期活躍玩家卻又同時算作是AI時代的失意者的英特爾和軟銀最近聯手整了一個大活,聯合發布號稱更適合AI時代存儲需求的ZAM(Z-Angle Memory),希望在爆炸式增長的存儲需求中瓜分一部分市場利潤。當然除了ZAM之外,英偉達也在試圖擺脫HBM依賴,比如斥資 200 億美元買下Groq的人工智能推理芯片技術授權,該技術可徹底擺脫對高帶寬存儲器的依賴。

什么是ZAM?
根據資料介紹,ZAM作為一款可替代高帶寬存儲器的堆疊式動態隨機存取存儲器,其功耗較HBM降低 40% 至 50%,存儲密度更是達到后者的 2 至 3 倍。該產品由軟銀、東京大學與英特爾聯合成立的 Saimemory公司研發,富士通后續也加入了這一研發陣營。這項技術的最初研發成果來自英特爾、東京大學及日本其他學術機構,ZAM的整體研發成本預計達7000萬美元,其中軟銀出資2100萬美元。
ZAM憑借架構與封裝層面的創新,實現了散熱性能的突破,具體優勢體現在以下方面:
HBM采用垂直直連的硅通孔技術,而ZAM則運用對角互連技術,在裸片堆疊結構中以斜向方式布設連接線路,大幅縮短信號傳輸路徑,降低電阻。
采用銅 - 銅混合鍵合工藝,摒棄傳統焊料凸點設計,打造出 “單片式” 硅塊結構,減少層間數據傳輸的能耗。
移除中心區域的硅通孔陣列后,芯片核心的實心硅體可充當垂直均熱板,優化的導熱性能減少了漏電現象,讓存儲器能在更低電壓下高效運行。
ZAM模塊將摒棄電容設計,在與人工智能芯片集成時,會采用嵌入式多裸片互連橋接技術。該技術通過在封裝襯底中嵌入超薄硅橋,實現各裸片間的高速連接,最大限度降低數據傳輸過程中的能耗。
在產業鏈方面,英特爾和軟銀并非孤軍奮戰。Shinko Electric Industries與力積電(Powerchip Semiconductor)負責該存儲器的制造及原型機研發工作,英特爾則提供堆疊工藝技術支持。NEO Semiconductor是另一家加入該技術路線的研發企業。英特爾表示,ZAM的原型機計劃于2027年推出,量產工作定于2030年開展。

ZAM的真正價值:供應鏈風險管理,而非單純技術升級
ZAM的出現并非始于 “我們有更好的存儲器”,而是源于更緊迫的共識:“AI 基礎設施不能只依賴兩家韓國存儲廠商。”對英特爾而言,這本質是平臺控制權問題。如果未來 AI 服務器繼續被鎖定在GPU+HBM架構中,那么:
存儲器供應節奏 ≈ 韓國廠商資本開支周期
平臺創新速度 ≈ HBM 硅通孔(TSV)工藝演進節奏
這相當于把 AI 算力的發展節奏交給外部掌控 —— 對正在重建先進工藝與數據中心生態的英特爾來說,這在戰略上不可接受。
對軟銀而言,這是投資結構風險問題。AI 投資已從軟件模型轉向基礎設施。若算力底座被 HBM 限制:
AI 投資回報周期將綁定存儲行業周期
機柜密度與功耗經濟性變得不可預測
因此,ZAM 本質是一種基礎設施對沖工具—— 它的存在本身,就是為了打破對 HBM 的單一路徑依賴。
對于美國的半導體戰略來說,如果不能讓兩家韓國半導體企業將HBM產線轉移到美國本土生產,那么就必須想辦法找新的技術來替代HBM,以確保美國供應鏈安全。鑒于韓國不會輕易妥協將HBM產品線轉移到美國生產,加上預估2026年美光的HBM4將淡出英偉達供應鏈的傳聞越來越“真”,作為美國政府投資的企業,英特爾就肩負起幫助美國本土制造先進AI存儲的政治任務。

軟銀旗下 Saimemory(賽存記憶體)是具體與英特爾合作推動下一代存儲技術商業化的關鍵實體, Saimemory是軟銀于2024年12月成立的子公司,專注下一代存儲技術研發,公司目標:2027 財年推出原型產品,2029 財年實現量產。
通過 ZAM 技術,雙方將為需要大規模 AI 模型訓練與推理的數據中心提供大容量、高帶寬的數據處理能力,同時提升處理性能、降低功耗。據《日經新聞》報道, Saimemory與英特爾目標是將功耗降至現有產品的一半。 Saimemory社長山口英也于3日在東京一場技術活動中表示,該項目將解決散熱、性能與供應問題,稱其 “在某種意義上是一場顛覆性挑戰”。參與該項目的英特爾人士約書亞?弗萊曼指出,該技術有望開發出比 HBM 更便宜的存儲器。
作為最早的存儲器巨頭,英特爾雖然告別存儲器產品近20年,但實際上英特爾長期與桑迪亞(Sandia)國家實驗室合作研發下一代 DRAM 鍵合(NGDB)技術。官方表示,傳統 HBM 方案通常需要在帶寬與容量之間做權衡,而NGDB旨在消除這一限制。該技術旨在彌補 HBM 與傳統 DDR DRAM 之間的性能差距,同時提供更高能效。英特爾強調,NGDB 展現了創新存儲架構 + 革命性封裝工藝的結合,可顯著優化 DRAM 性能與成本,并有望為低功耗存儲方案帶來變革性機遇。
ZAM的成果實際上歸納于英特爾最新公開的美國專利《面向大容量存儲的垂直堆疊裸片封裝架構》,在多個關鍵層面脫離了經典 HBM 模型。該專利不再簡單將 DRAM 裸片垂直堆疊并與計算裸片并排放置在中介層上,而是提出了多組件、系統級存儲架構,通過封裝級模塊化垂直堆疊擴展容量與帶寬。這并非微小的封裝改動,而是存儲密度物理實現方式的范式轉移。

ZAM的定位:更像架構整合商,而非傳統存儲廠商
傳統存儲公司的邏輯:設計 DRAM → 擴建晶圓廠 → 以每比特成本競爭。
ZAM則更像是一家 “存儲架構 IP 公司 + 3D 制造協同平臺”。它通過以下方式定義一條非 TSV的高帶寬存儲路線:
架構專利
3D 堆疊物理設計
與代工廠共同開發工藝窗口
這也解釋了為何ZAM必須以獨立實體存在 —— 若依附于現有存儲大廠,其路線圖會立刻與HBM既得利益產生沖突。
ZAM 不是 “下一代 HBM”,而是一條 “去 HBM 化” 路線。
HBM 的本質是:用 TSV(硅通孔)將多顆 DRAM 裸片垂直堆疊,再通過中介層連接到計算芯片。當路線演進到 HBM4 時,該技術已逼近三大物理極限。
HBM面臨的三大物理極限
1. 結構極限
HBM 堆疊每顆裸片需要數千個 TSV。這些垂直互連會占用本可用于存儲數據的寶貴硅面積,降低有效存儲密度。高 TSV 密度還會削弱晶圓機械強度,增加減薄與堆疊過程中的翹曲、應力集中、裸片開裂風險。堆疊層數越高,良率敏感度急劇上升。
2. 熱極限
隨著堆疊層數增加(12 層、16 層及以上),中間裸片會變成熱死區。計算芯片與活躍 DRAM 單元產生的熱量必須穿過多層低導熱層才能散出,形成溫度梯度、熱點與電荷保持能力下降。冷卻效率隨層數非線性下降,迫使降低工作頻率或強制溫控降頻。
3. 功耗極限
信號必須穿過微凸塊、重布線層、TSV 通道,每一層都會增加電阻、電容與寄生電感。這種多界面路徑抬高 I/O 功耗、降低信號完整性、提升每比特傳輸能耗。隨著帶寬提升,I/O 功耗會成為存儲總功耗的主要部分,拉低系統級能效。
ZAM的核心思路是放棄密集打孔,改用單一中軸通道:不再到處打孔,而是建一條中央主干。

“單孔中樞” 通道:結構維度的躍遷
NGDB 測試結構的截面顯示了這種非常規架構:8 片采用新型 NGDB DRAM 架構的晶圓垂直鍵合在基底晶圓上,并通過 “單孔中樞”結構連接。(如下圖,英特爾提供圖片)

ZAM 使用單一中央通道傳輸電源與信號,用單軸神經式主干取代 HBM 的 “蜂窩式 TSV 網格”。帶來的效果:
DRAM 有效存儲面積提升 30% 以上
信號路徑更短 → 更低延遲
機械強度更高 → 晶圓可承受更高堆疊層數
這不是工藝優化,而是存儲架構物理規則的重構。
相比于HBM堆疊越高,核心越熱的規律,原生熱管效應的特點是將散熱變為結構優勢。ZAM的中央通道如同垂直熱管,可更直接地將核心熱量導出。實驗數據顯示,在同等算力負載下,ZAM 功耗有望降至 HBM4 的約 50%。對 AI 數據中心而言,這不是漸進式改進,而是機柜密度級別的革命。
ZAM 采用直接硅 - 硅混合鍵合,而非微凸點。信號不再穿過焊料接點、氧化層界面、不連續材料邊界,而是通過近原子級接觸傳輸,大幅降低電阻與寄生電感。








評論