博通的Thor Ultra:與英偉達的人工智能網絡戰爭的新戰線
2025 年 10 月 14 日,博通宣布推出其 Thor Ultra 網絡芯片,這是一款高性能處理器,旨在連接海量數據中心的數十萬個 AI 加速器。此舉直接挑戰了 Nvidia 在人工智能基礎設施(特別是其 NVLink Switch 和 InfiniBand 網絡解決方案)方面的主導地位,為分布式計算集群提供了卓越的可擴展性,而分布式計算集群對于訓練和運行大型語言模型(如為 ChatGPT 提供支持的模型)至關重要。
Thor Ultra 芯片的主要細節
目的和能力:Thor Ultra 充當高速“流量控制器”,用于數據中心內緊密封裝的芯片之間數據流動。它使運營商能夠部署更多的芯片——在單個集群中多達 100,000+——同時與前幾代產品相比,帶寬增加了一倍。這對于 AI 工作負載至關重要,因為處理器之間的低延遲通信決定了效率。
技術優勢:它基于先進工藝(可能是 5nm 或更好,類似于 Broadcom 之前的 Tomahawk 系列)構建,支持 800G 以太網速度,并針對超大規模 AI 環境中的“橫向擴展”架構進行了優化。博通高管強調了其在為分布式系統構建“大型集群”方面的作用。
此次發布建立在博通 2025 年 7 月早些時候發布的 Tomahawk Ultra 的基礎上,該 Ultra 針對機架內連接,可以連接比 Nvidia NVLink 多四倍的芯片。Thor Ultra 將其擴展到更廣泛的數據中心規模網絡,進一步鞏固了博通在預計 2027 年價值 60-900 億美元的人工智能芯片市場中的地位。
背景:OpenAI 交易和更廣泛的人工智能推動
就在博通于 2025 年 10 月 13 日宣布與 OpenAI 達成重磅合作伙伴關系的一天后:
兩家公司將從 2026 年下半年開始共同開發和部署 10 吉瓦的定制人工智能加速器(相當于為超過 800 萬美國家庭供電),并到 2029 年全面部署。
這些“Tensor”芯片針對推理進行了優化,并通過博通的以太網堆棧聯網,旨在減少 OpenAI 對目前主導市場的 Nvidia GPU 的依賴。
OpenAI 首席執行官 Sam Altman 強調了集成系統(計算、內存和網絡)以降低成本的必要性——估計每個吉瓦數據中心的成本約為 350 億美元,其中大部分用于芯片。
博通的人工智能收入激增:2025 年第二季度為 44 億美元(僅網絡方面同比增長 170%),預計 2025 財年為 19-200 億美元,到 2026 年將達到 330 億美元。受 OpenAI 消息影響,該股上漲 9-10%,將其市值推高至 1.5 萬億美元以上。
博通與英偉達的競爭愈演愈烈
英偉達擁有 ~80-90% 的人工智能加速器市場份額,但博通正在開辟網絡層——通常被稱為人工智能數據中心的“管道”。這是一個快速比較:

博通并不直接競爭 GPU,而是為替代品(例如谷歌的 TPU)和現在的 OpenAI 的內部設計提供支持。這種“挑起和鏟子”的策略——提供基礎設施——使博通能夠在不受英偉達供應限制的情況下占據 20-30% 的人工智能硬件蛋糕。
市場反應與展望
股票影響:OpenAI 交易后,AVGO 股價上漲 ~10%,反映出投資者押注英偉達 (NVDA) 多元化,英偉達面臨出口限制和競爭的波動。
更廣泛的影響:隨著人工智能需求的爆炸式增長(僅 OpenAI 就承諾在 Nvidia、AMD 和 Oracle 等合作伙伴中實現 33GW),以太網等開放標準可能會侵蝕 Nvidia 的護城河。分析師預計博通的人工智能業務同比增長 60%,但風險包括執行延遲和中美貿易緊張局勢。
此次發布凸顯了人工智能芯片大戰從計算轉向連接——博通的悄然崛起可能使其成為構建下一代智能基礎設施競賽中的無名英雄(或英偉達的最大威脅)。











評論