久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 智能計算 > 業界動態 > 英偉達可能正在為中國市場準備 B30A 加速器

英偉達可能正在為中國市場準備 B30A 加速器

作者: 時間:2025-08-20 來源:Tom‘s Hardware 收藏

據報道正在為中國市場開發基于 Blackwell 架構的新 AI 加速器——用于 AI 訓練的 B20A 和用于 AI 推理的 RTX 6000D——這些產品將超越現有的 HGX H20 和 L20 PCIe 產品 ,但仍將符合美國出口管制, 路透社援引了解情況的消息人士稱。如果信息準確,那么中國客戶可能會得到兩款性能與上一代旗艦相當相當的有力的產品。

據稱,Nvidia 基于 Blackwell Ultra 微架構,但僅使用一個計算芯片,提供約 B300 性能的一半和其 HBM3E 內存容量(即 144 GB HBM3E)的 50%。此前,該產品據傳被稱為 B300A,并面向全球市場,而不僅限于中國。由于 據傳是一款面向中國的 SKU,因此 Nvidia 可能對此部分引入某些性能限制。"我們評估各種產品以規劃我們的路線圖,以便在政府允許的范圍內做好準備進行競爭",Nvidia 發言人向 Tom's Hardware 發表聲明時表示。"我們提供的所有產品都經過相關當局的完全批準,并專為有益的商業用途而設計。"

如果信息準確且 GPU 將達到報道的性能目標,那么它不僅將超越 HGX H20,實際上還將擊敗上一代旗艦 H100。該設備還將配備 NVLink 以實現擴展連接,但尚不清楚 Nvidia 是否會通過減少 NVLink 的數量來限制構建機架級解決方案或大型集群。

GPU

(傳聞)

HGX H20

H100

B200

B300(超)

封裝

CoWoS-S

CoWoS-S

CoWoS-S

CoWoS-L

CoWoS-L

每封裝浮點運算性能達 FP4 PFLOPs

7.5

-

-

10

15

每封裝 FP8/INT6 浮點運算性能

5

0.296

2

4.5

10

每封裝 INT8 浮點運算性能

0.1595

0.296

2

4.5

0.319

每包 BF16 PFLOPs

2.5

0.148

0.99

2.25

5

每包 TF32 PFLOPs

1.25

0.074

0.495

1.12

2.5

每包 FP32 PFLOPs

0.0415

0.044

0.067

1.12

0.083

每包 FP64/FP64 張量 TFLOPs

0.695

0.01

34/67

40

1.39

Memory

144 GB HBM3E

96 GB HBM3E

80 GB HBM3

192 GB HBM3E

288 GB HBM3E

內存帶寬

4 TB/s

4 TB/s

3.35 TB/s

8 TB/s

8 TB/s

HBM Stacks

4

4

5

8

8

NVLink

?

?

NVLink 4.0, 50 GT/s

NVLink 5.0, 200 GT/s

NVLink 5.0, 200 GT/s

GPU TDP

700W (?)

400W

700W

1200W

1400W

構建 B30A(或 B300A)應該相對容易,因為一個計算芯片和四個 HBM3E 內存堆棧可能可以使用臺積電成熟的 CoWoS-S 技術進行封裝(至少根據半分析的說法是這樣),而這種技術恰好比 B200 和 B300 處理器使用的 CoWoS-L 更便宜,后者包含兩個計算芯片和八個 HBM3E 模塊。

除了 B30A 之外,據報道還計劃推出一款 RTX 6000D 產品,該產品專為 AI 推理設計,也可能用于專業圖形應用。與完整的 RTX 6000 相比,這款產品的規格將被縮減。路透社表示,其內存帶寬將約為 1.398 TB/s,但細節尚不清楚。

預計英偉達的客戶將在 9 月獲得 B30A 和 RTX 6000D 的首批樣品,因此如果美國政府批準這些產品,英偉達將能夠在 2025 年底或 2026 年初開始出貨商用 B30A 模塊和 RTX 6000D 顯卡。

關于英偉達為中國市場推出新人工智能加速器的傳聞,是在美國總統唐納德·特朗普暗示只要滿足一項新安排——即英偉達和 AMD 將向美國政府支付其中國收入 15%——他可能會允許在中國銷售下一代英偉達部件之后傳出的。然而,立法者中的兩黨反對意見仍然持續質疑,即使是經過削減版本的先進人工智能硬件是否應該對中國公司開放。



關鍵詞: 英偉達 B30A AI芯片

評論


相關推薦

技術專區

關閉