Microsoft 推出最新的自家 AI 芯片
每美元性能比 Maia 100 高 30%,速度也快于 Amazon或Google。

Microsoft 推出了其最新的人工智能加速器——Microsoft Azure Maia 200。這款全新的自家人工智能芯片是Microsoft Maia GPU系列的下一代產品,這是一款服務器芯片,旨在推理出具有驚人速度和數據源的AI模型,以超越亞馬遜和谷歌等超大規模競爭對手的定制產品。
Maia 200被譽為Microsoft有史以來部署的“最高效推斷系統”,其所有新聞稿都在贊揚其高性能數據和強調Microsoft對環保主義的口頭支持之間分配時間。Microsoft聲稱Maia 200每美元比第一代Maia 100高出30%,這在技術上也宣稱比前代高出50%的TDP是一項令人印象深刻的成就。
Maia 200基于臺積電的3納米工藝節點構建,包含1400億個晶體管。Microsoft稱該芯片的FP4計算能力可達10千萬億次浮點,是亞馬遜競爭對手Trainium3的三倍。Maia 200 還配備了 216 GB 的 HBM3e 內存,7 TB/s 的 HBM 帶寬,并配備了 272MB 的片內 SRAM。
Maia 200 vs 亞馬遜 Trainium3 vs Nvidia Blackwell B300 Ultra

如上所示,Maia 200在純計算能力上明顯領先于亞馬遜內部競爭對手,并引發了與英偉達頂尖GPU并列的有趣討論。顯然,直接比較兩者是徒勞無功;外部客戶無法直接購買Maia 200,Blackwell B300 Ultra專為性能遠超Microsoft芯片的應用場景設計,而英偉達的軟件架構則遠遠領先于任何同時代產品。
不過,Maia 200在效率上確實超過了B300,這在當今公眾對AI環境影響的反感日益高漲中,是一大勝利。Maia 200的TDP幾乎是B300的一半(750W對1400W),如果它和Maia 100類似,它的工作量將低于理論最大TDP;Maia 100原本設計為700W芯片,但Microsoft聲稱其實際運行功率限制為500W。
Maia 200 針對 FP4 和 FP8 性能進行了調校,專注于服務那些推理出渴望 FP4 性能的 AI 模型,而非更復雜的作。Microsoft 為該芯片投入的大量研發預算似乎已投入到其 272MB 高效 SRAM 內存庫內的內存層級結構中,該內存分為“多層集群級 SRAM (CSRAM) 和 Tile 級 SRAM(TSRAM)”,以適應更高的運行效率,并秉持智能且均勻地將工作負載分散到所有 HBM 和 SRAM 芯片的理念。
由于Microsoft官方數據表中兩款芯片幾乎沒有重疊或共享的測量數據,Maia 200相比其前代Maia 100的改進很難衡量。目前我們只能說,Maia 200的運行溫度將比Maia 100更高,而且在每美元性能指標上顯然提升了30%。
Maia 200 已部署于 Microsoft 的美國 Central Azure 數據中心,隨著 Microsoft 獲得更多芯片,未來還將部署于亞利桑那州鳳凰城的 US West 3 及更多。該芯片將成為Microsoft異構部署的一部分,同時與其他AI加速器協同運行。
Maia 200,最初代號Braga,因其長期延遲的開發和發布而引起轟動。該芯片原本計劃在2025年發布和部署,甚至可能搶先于B300,但這并非預期。Microsoft的下一款硬件發布尚不確定,但據十月報道,很可能將采用Intel Foundry的18A工藝制造。
Microsoft圍繞Maia 200的效率優先宣傳,延續了其近期強調公司對數據中心附近社區的關切,竭力平息對AI熱潮的反彈。Microsoft首席執行官Satya Nadella最近在世界經濟論壇上談到,如果企業無法幫助公眾看到AI開發和數據中心建設的所謂好處,他們就有可能失去“社交許可”,并制造出令人畏懼的AI泡沫。













評論