Microsoft發布第二代AI推理芯片Maia 200
微軟將其稱為性能最強的定制化云加速芯片,稱 Maia 200 針對多模型 AI 推理場景進行了優化。

Microsoft發布第二代自研 AI 推理芯片Maia 200,稱其為突破性推理加速器與算力核心。這一舉措表明,AI 的未來競爭焦點不僅在于模型的 token 生成數量,更在于生成效率的優化。
這款 AI 芯片專為多環境異構 AI 基礎設施設計,重點面向大型推理模型的推理任務開發。Microsoft聲稱,它是目前所有超大規模云服務商中性能最強的自研芯片,也是其部署過的最高效推理系統。
Moor Insights & Strategy 副總裁兼首席分析師 Matt Kimball 表示,微軟的技術路線與其他超大規模云服務商有所不同。“其他云服務商推出的平臺多兼顧訓練與推理,并偏向適配自身定制化技術棧;而微軟將推理環節視為戰略核心,打造了面向智能體驅動 AI 環境優化的專屬平臺。”
Maia的實力如何
Microsoft聲稱,Maia 200在4位浮點(FP4)性能方面比第三代亞馬遜Trainium高出3倍,8位浮點(FP8)性能則高于谷歌第七代TPU。
從數字上看,這意味著瑪雅具備:
峰值時為10,145個四位浮點(FP4)太浮點浮點,而AWS Trainium3時為2,517個
峰值時為5,072個八位浮點(FP8)千萬億次浮點,而Trainium3為2,517次,Google TPU 7版本為4,614次
高帶寬內存(HBM)為7 TB每秒,而Trainium為4.9,Google TPU 7為7.4
HBM容量為216GB,而Trainium為144GB,Google TPU第7版為192GB。
此外,Microsoft 表示,Maia 200 的每美元性能較其現有最新硬件提升 30%。超大容量高帶寬內存(HBM)的配置,可讓模型計算與數據存儲盡可能靠近,提升運行效率。
“從實際應用來看,Maia 200 能夠輕松運行當前最大規模的 AI 模型,同時為未來更大模型的部署預留充足算力空間。” Microsoft 方面稱。
Maia 200 采用重新設計的內存子系統,通過專用直接內存訪問(DMA)引擎、片上靜態隨機存取存儲器(SRAM)以及專用片上網絡(NoC)架構,改變了數據向模型的傳輸方式,在實現高帶寬數據流動的同時,提升 token 吞吐量。
面向異構與多模態 AI 場景
Microsoft 稱,Maia 200 的設計充分考慮了現代大語言模型(LLMs)的需求。其表示,具有前瞻性的客戶不僅關注文本交互能力,更期待支持深度推理、多步驟智能體以及最終實現自主 AI 任務的多模態(語音、圖像、視頻)功能。
作為 Microsoft 異構 AI 基礎設施的重要組成部分,Maia 200 將支持包括 OpenAI 最新 GPT-5.2 系列在內的多款模型,與 Microsoft Azure 無縫集成,同時為 Microsoft Foundry 和 Microsoft 365 Copilot 提供算力支持。微軟超級智能團隊還計劃利用 Maia 200 開展強化學習(RL)與合成數據生成工作,以優化內部模型。
Info-Tech Research Group 顧問研究員 Scott Bickley 指出,從技術規格來看,Maia 200 全面超越亞馬遜 Trainium、Inferentia 以及谷歌 TPU v4i/v5i。該芯片采用臺積電 3 納米制程工藝(亞馬遜與谷歌同類芯片分別為 7 納米或 5 納米),在計算、互聯與內存性能方面均表現出優勢。
不過他提醒:“盡管參數亮眼,但客戶在考慮從 Nvidia 等現有方案遷移至 Maia 200 大規模部署負載前,應先驗證其在 Azure 生態中的實際性能;同時需確認Microsoft 宣稱的 30% 成本節省,是否會通過 Azure 訂閱費用下調等方式惠及客戶。”
Scott Bickley 認為,“Maia 200 的理想應用場景是高吞吐量負載,且需為大型模型提供充足內存支持。”
Microsoft在之前設計挑戰上的改進
Scott Bickley 提到,初代 Maia 芯片曾因 “多數為自身導致的設計與開發問題” 陷入困境,致使微軟在 2024-2025 年的芯片研發進度放緩,而競爭對手則在同期加速推進技術迭代。
“通過訪問OpenAI的知識產權,他們似乎正在縮小差距,”他說。而Microsoft利用臺積電的3nm工藝、HBM和片上SRAM,以及推理性能優化,“可能已經以一種能夠顯著降低自身基礎設施成本的方式進化了這款芯片。”
Moor Insights & Strategy 的 Matt Kimball 補充道,Maia 的軟硬件架構對推理場景極具適配性。“大容量片上 SRAM 與 HBM 確保了穩定推理狀態下的高帶寬數據傳輸效率。” 此外,該芯片采用行業標準互聯技術,“可在組件、系統、機柜乃至數據中心層面實現高性能擴展”。
Matt Kimball 指出, Microsoft 的開放式軟件棧 “專為簡化 Maia 芯片的推理部署流程而設計”,并強調 “這并非 Microsoft 試圖取代 Nvidia 或 AMD,而是對現有生態的補充”。
Matt Kimball 還提到, Microsoft 深耕企業 IT 市場數十年,旗下軟件與工具長期占據主導地位,因此比其他云服務商更了解企業客戶需求。Maia 團隊充分利用這一優勢,推出的推理服務 “已深度融入 Azure 平臺架構”。
開發者及早期用戶可申請 Maia 200 軟件開發工具包(SDK)預覽版,該工具包提供 PyTorch 集成、Triton 編譯器、優化內核庫等模型開發與優化工具,同時支持訪問 Maia 的底層編程語言。
目前,Maia 200 已部署于 Microsoft 位于愛荷華州得梅因附近的美國中部數據中心區域。下一步將部署至亞利桑那州鳳凰城附近的美國西部 3 區數據中心,后續還將擴展至其他區域,具體部署時間與地點尚未公布。













評論