云開發者正加速向Arm架構遷移:構建面向AI時代的未來基礎設施
云開發者正加速采用基于 Arm 架構的平臺,憑借其無可比擬的每瓦性能和成本優勢,更快落地可擴展并投產的 AI 工作負載。
人工智能 (AI) 正重塑數字格局,開發者也正面臨全新挑戰:基礎設施不僅要具備強大算力,還需兼具可擴展性、成本效益和高能效等特征。當前,亞馬遜云科技、谷歌、微軟、Oracle Cloud Infrastructure (OCI) 及 NVIDIA 等超大規模云服務提供商與 AI 領軍企業,均已基于 Arm 架構打造定制化解決方案,布局 AI 數據中心。
這一趨勢正在蓬勃展開。2025 年頭部超大規模云服務提供商的新增服務器算力中,有近半數是基于 Arm 架構。Arm Neoverse 平臺正在為量產級 AI 工作流、向量搜索引擎、實時機器學習 (ML) 平臺及云原生微服務提供算力支撐,同時在成本效益、吞吐量與節能方面實現可量化的顯著提升。隨著 AI 工作負載持續擴展,基礎設施的選擇愈發關鍵。

AI工作負載貫穿端到端,Arm賦能全流程優化
AI 的應用早已不再局限于推理或模型訓練環節。從數據預處理、模型編排,到實時服務與內存管理,如今的 AI 技術棧已覆蓋整個計算工作流。這也帶來了延遲、成本、功耗及擴展性方面的全新系統級挑戰,而這些早已超出了傳統通用 CPU 的設計初衷與能力范圍。
Arm 在這場變革中扮演核心角色——其價值不僅限于 CPU 層面,更貫穿整個 AI 系統架構。
在亞馬遜云科技, Arm Neoverse 核心為 Graviton 通用計算平臺、Nitro 數據處理單元 (DPU) 提供算力支撐,并作為 AI 加速器的頭節點 (head node),為 AI 工作流打造高度集成、能效出眾的基礎設施。
NVIDIA 亦采用類似架構設計:Arm 架構是 Grace 與 Vera CPU 的技術基石,二者均作為 AI 系統的頭節點部署;同時 Arm 還為 BlueField DPU 提供算力支撐,助力數據遷移與卸載處理,為 AI 數據中心設計打造一體化的平臺解決方案。
憑借卓越的每瓦性能、強大的內存帶寬,以及在 Amazon Graviton、Google Cloud Axion、Microsoft Azure Cobalt、NVIDIA Grace 等平臺上的規模化部署,基于 Arm 架構的基礎設施正日益成為可擴展、高性價比 AI 工作負載的優選方案。
Arm正成為云計算的新標準
云計算領域正經歷一場戰略性轉變:全球領先的云服務提供商均在加碼基于 Arm 架構的基礎設施建設,將其作為融合型 AI 數據中心規模化部署的默認路徑。這并非試點探索,而是著眼于長期的架構戰略。
在軟件層面,Atlassian、Spotify 和 優步 (Uber) 等企業,已開始借助通用工具與社區文檔,將核心工作負載遷移至基于 Arm 架構的云基礎設施,且無需對底層平臺進行深度重構。Atlassian 表示,在將核心服務遷移至 Arm 實例后,計算成本顯著降低,CI/CD 工作流運行速度也得到提升;Spotify 在后端工作負載中試用 Graviton 平臺后,實現了顯著的基礎設施效率提升;Uber 則通過基于 Arm 架構的基礎設施,在優化微服務性能的同時,降低了單實例的運營成本。
與此同時,Arm 提供的一系列工具正加速這一遷移進程。例如 Arm MCP(模型上下文協議)服務器以及集成于 GitHub Copilot 的 Arm 云遷移智能體 (Cloud Migration Agent),正幫助開發者評估工作負載兼容性、加快云遷移進程,并實現穩定可靠的規模化部署。目前,專為各類 Arm 云平臺量身打造的 Arm MCP 服務器已面向所有軟件開發者開放,它可將云遷移工具與專業經驗直接融入開發者常用的 AI 助手中,從而賦能自主化的智能體工作流。
通過自動化最佳實踐、加速開發流程并提供實時指導,該工具顯著簡化了遷移路徑,讓開發團隊從項目首日起,即可更輕松地獲得成本、能效與性能優勢。早期用戶的反饋也驗證了其在真實遷移場景中具備高度實用性。
開發者轉向Arm架構的五大案例
除上述全球軟件企業外,其他科技公司在日常運營中采用基于 Arm 架構的云基礎設施時,也收獲了類似效益。
1 借助 Graviton3,LLM 推理成本降低 35%
Vociply AI 是一家專注于大規模部署大語言模型 (LLM) 的 AI 初創企業,在切換至 Amazon Graviton3 后,其月度基礎設施成本從 2000 美元降至 1300 美元,同時性能實現同步提升,具體包括:
● 性價比提升 40%
● 詞元 (token) 吞吐量提升 15.6%
● 功耗降低 23%
這一成果得益于 Arm Neoverse 核心、Neon? 指令集深度優化,以及 llama.cpp 等量化推理引擎的支持。
2 生成式 AI 工作流提速,基礎設施成本降低 40%
生成式 IT 及 AI 解決方案平臺 Esankethik 將其完整技術棧——涵蓋預處理、訓練與推理環節,全面遷移至基于 Arm 架構的 Graviton 實例,取得了顯著成效,具體包括:
● 推理業務延遲降低 25%
● 每百萬次請求的 Lambda 成本降低 40%
● 內存效率提升 15%
通過在 Arm 平臺上統一運行預處理、訓練與推理任務,Esankethik 有效緩解了性能瓶頸,并顯著提升了系統可擴展性。
3 SiteMana 實現實時 ML 的穩定規模化
獲客技術公司 SiteMana 已將其實時 ML 推理與數據攝取任務遷移至 Graviton3 平臺,并取得了顯著成效:
● 月度成本降低約 25%
● P95 延遲降低約 15%
● 網絡帶寬提升 2.5 倍
此次遷移有效解決了 CPU 降頻問題,并實現了峰值負載下的系統性能穩定。
4 AuthZed提升開發者工作流效率
AuthZed 作為基礎設施服務授權平臺,已將其從開發筆記本到云端的所有工作負載統一遷移至 Arm 架構,由此實現了:
● 本地構建速度提升 40%
● 生產環境 CPU 利用率提升 20%–25%
● 計算成本降低約 20%
該方案在不改變開發者既有工作習慣的前提下,實現了工作流程的大幅精簡優化。
5 Zilliz Cloud提升AI搜索吞吐量
面向生產級 AI 應用的全托管向量數據庫平臺 Zilliz Cloud,將其向量搜索引擎遷移至 Graviton3 后,實現了以下優化成果:
● 索引構建性能提升 50%
● 十億級查詢場景下,向量搜索速度提升 20%
● 單查詢成本降低,吞吐量提升
該成果適用于語義搜索、檢索增強生成 (RAG) 及多模態 AI 任務。
為AI云時代而生
Arm Neoverse 專為現代工作負載打造——涵蓋 LLM、向量搜索、實時 ML、數據分析及高密度微服務等場景。與 x86 相比,基于 Arm 的實例具備以下優勢:
● 更卓越的性價比優勢
● 更出色的AI與云原生工作負載性能
● 成熟的軟件生態與完善的開發者工具鏈
● 通過Arm KleidiAI為AI框架提供優化支持,實現無縫性能調優與集成
Arm 提供涵蓋開發者資源、性能調優指南與云遷移清單在內的完整套件,顯著簡化 AI 與云工作負載的遷移流程。這些資源可降低遷移阻力,支持性能調優,且無需對平臺進行全面重構。
開發者可通過 Arm 云遷移計劃獲取遷移資源、技術指南及專家咨詢服務。
此外,Arm MCP Server 現已向所有開發者開放,可幫助識別并高效執行從 x86 到 Arm 架構的遷移。
AI 時代的基礎設施平臺
基于 Arm 的云基礎設施正快速成為 AI 計算戰略的基石。
隨著工作負載持續擴展,能效的重要性日益凸顯,基礎設施需以更少資源提供更多價值。Arm 為打造下一代 AI 系統的開發者,提供了切實可行的實踐路徑。


評論