久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 智能計算 > 編輯觀點 > CES 2026:忘掉GPU,英偉達開啟AI工程化落地時代

CES 2026:忘掉GPU,英偉達開啟AI工程化落地時代

作者: 時間:2026-01-07 來源: 收藏

不管從哪個角度看,的演講都是CES2026最受矚目的一個環節。在這個言必稱的科技展會上,作為浪潮獲益最大的企業以及支撐了整個科技產業股價走勢的,如何構建未來發展的藍圖,以及如何回應近些日子甚囂塵上的AI投資泡沫論,都需要在這第一次沒有發布的演講中尋找答案。 

穿著熟悉的皮衣入場開啟了CES2026的主題演講,人們驚訝的發現顛覆了傳統的敘事模式,以一種近乎發布“產業白皮書”的嚴肅姿態,向全世界系統性地解答了一個關鍵問題:當 AI 走出實驗室,要融入工廠、汽車、醫院和城市基礎設施時,我們到底需要一套怎樣的技術體系?此刻的英偉達,這家全球市值第一的公司,向所有人傳遞著全新的自我定位:不再是一家和AI加速器供應商,它要成為AI時代的基礎設施設計者,以及AI應用的加速器。 

助力AI完成和規?;倪M程,并真正實現在物理世界,黃仁勛不僅給出了未來世界第一市值公司的發展藍圖,更是回擊那些鼓吹AI投資泡沫的看衰者,當AI真正在千行百業中應用起來,遠遠不夠的算力基礎設施,哪里存在什么泡沫!

1767743511629825.png

 AI告別“實驗室時代”

成本昂貴、能耗驚人,這是過去幾個月從谷歌到微軟一直針對英偉達攻訐的關鍵,黃仁勛一定是忍了很久這個問題,于是在演講一開場,黃仁勛就打破了一個過去幾年無人質疑的共識——AI 的核心問題并非模型規模。這并非否定大模型的價值,而是對 AI 發展階段的冷靜判斷,也是對競爭對手指摘英偉達問題的正面回應。 

過去數年,AI 技術的進步主要依賴模型層面的突破。更大的參數規模、更復雜的網絡結構、更激進的訓練策略,一次次刷新著各類技術基準。但當生成式 AI 從研究機構走向企業實際應用,當 AI 離開實驗室,真正進入生產環境,就必須面對一系列全新的工程約束。 

企業關心的不是單次推理有多快,而是一年運行下來的成本是否可控;在數據中心、工廠現場、車載系統等場景中,功耗直接決定了系統能否部署;實驗室里的偶發錯誤,在工業環境中可能引發停產、事故甚至人員傷亡,這就要求系統必須可靠、可預測;一個 Demo 的成功,遠不代表能在一萬個節點上長期穩定運行,規?;瘡椭瞥蔀殛P鍵挑戰。這些問題,顯然無法通過“增加幾個參數”來解決。黃仁勛在演講中反復強調,AI 正經歷一場典型的技術成熟期轉折:從“能否做出來”,轉向“能否被工程系統長期承載”。 

這也劃分出了研究型 AI 與工業型 AI 的明確界限。研究型 AI 以突破性能上限為目標,用準確率、生成質量等技術指標來評價,運行在云端、實驗室等有限規模環境中,成功的標準是跑通模型、保持領先;而工業型 AI 追求長期穩定運行,核心評價體系是成本、能效、可靠性和安全,應用場景延伸到工廠、車輛、邊緣系統等真實環境,成功的關鍵在于可復制、可維護、可審計。 

NVIDIA 在 上明確宣告:AI 已經整體跨入工業型 AI 階段。這意味著什么?英偉達不是玩不起性價比,而是要根據AI發展規律去針對性提供適合不同階段的產品,背后的邏輯是什么?我英偉達才是AI產業藍圖的總設計師! 

黃仁勛在演講中刻意回避“ 廠商”這一標簽,反復強調自己是“AI 基礎設施公司”“工業 AI 平臺提供商”“物理 AI 賦能者”。這種與時俱進的企業定位反映了英偉達開啟了身份重塑的新階段,通過新的企業定位實現對技術覆蓋范圍的系統性確認。NVIDIA在 上的表態,本質上是一次公開宣示:它要成為 AI 階段“默認被采用的底座”。 

在研究型AI主導的早期階段,GPU的價值直觀且關鍵,是決定訓練速度、支撐模型規模擴展的核心硬件。但進入階段,單一器件的性能已無法單獨決定系統成敗。真正重要的,是從芯片到軟件、從計算到部署的完整閉環。這意味著 NVIDIA 的工作重心發生了根本性轉變:不再只是提供孤立的計算單元,而是全面設計系統架構、能效模型、軟件棧以及行業級解決方案,試圖掌控 AI 生命周期中的所有關鍵節點。這種“全棧式布局”短期內看似復雜且成本高昂,但在工程化階段卻極具現實意義。企業不愿承擔系統集成的不確定性,行業應用需要經過嚴格的安全與合規驗證,長周期運行則要求高度的工程確定性。在這樣的背景下,能夠同時設計硬件、系統與軟件的平臺型公司,天然具備更強的行業話語權。

 

AI 工程化的核心底座 

從Hopper到Rubin,英偉達幾代架構的跨越,對應著特定時代的技術需求。Hopper 架構誕生于大模型訓練指數級擴張的階段,當時 AI 的核心矛盾是“模型能否訓練出來”以及“訓練時間是否可接受”。因此,Hopper 聚焦極致的矩陣計算吞吐和并行能力,目標用戶直指超大規模云服務商與頂級研究機構。隨著生成式 AI 進入實際應用,推理逐漸成為主要成本來源,Blackwell 架構應運而生。它的核心使命是提升推理效率、降低單位推理成本、支撐多模型并發運行,但它仍主要服務于集中式數據中心場景,假設算力高度集中、運行環境相對可控。而 Rubin 架構的出現,標志著 NVIDIA 不再滿足于云端推理的優化。它面向的是一個更加分散、復雜的世界——工廠、醫療系統、自動駕駛車輛、大規模機器人集群。這些場景的共同特征是:算力必須貼近物理世界,系統必須長期運行,錯誤代價極高。 

看吧!英偉達的每一代架構都完美契合著AI發展的技術需求,AI與英偉達默契得就像是青梅竹馬兩小無猜的天作之合。至于最近幾個月谷歌TPU對英偉達訂單的威脅,黃仁勛的回應也很直接,我們的下一代平臺Rubin來了,它才是最適合AI工程化照進現實的平臺 .

工程化AI時代,黃仁勛刻意避免將 Rubin定義為“下一代 GPU”,而是反復強調Rubin 不是簡單的性能升級,而是一次平臺級的系統設計。這一表述背后是明確的工程立場:Rubin 存在的意義,不是刷新某一個性能指標,而是解決 AI 工程化階段的系統性約束。理解 Rubin,必須跳出“芯片迭代”的思維,從“系統工程”的視角出發。Rubin不再是簡單的線性架構升級邏輯——新一代架構往往意味著更先進的制程、更高的算力和更好的能效比,Rubin的出發點是一個更根本的問題:當 AI 成為基礎生產力時,算力系統能否像工業設備一樣,被長期、穩定、規?;夭渴?? 

將Rubin 定義為平臺,意味著 NVIDIA 已明確:工業級 AI 是一個多層系統工程,不能靠單一器件解決。Rubin 的設計目標發生了根本變化:不再只追求峰值性能,而是聚焦長時間滿載運行能力、能耗可預測性、系統級可靠性和可復制的部署形態。在 Rubin 平臺中,計算單元不再孤立存在:Rubin GPU 采用雙 Die 設計,面向高并發、持續推理負載;Vera CPU 專注于功耗受限環境下的控制與調度;高速互連技術則能減少數據搬運、降低系統延遲。這種協同設計的核心邏輯是,任何一個組件的瓶頸,都會在系統層面被放大。

在工業部署場景中,AI 系統往往需要 7×24 小時運行、長期維持高負載,且要在有限功率預算內穩定輸出。此時,單一芯片的峰值性能已不能代表系統真實能力,實際利用率、調度效率和空轉功耗才是關鍵。Rubin 的設計目標,正是通過系統級協同,在相同能耗條件下輸出更多“有效 AI 結果”。與前幾代架構不同,Rubin 在設計之初就將軟件視為系統能力的一部分,而非“后裝組件”。調度、功耗管理、容錯與安全機制,都在架構層面被納入考量。這也是 NVIDIA 同時強調硬件平臺與軟件棧重要性的原因——二者是不可分割的整體。

 1767743452419196.png

如果說 Rubin 平臺定義了系統形態,那么 Vera Rubin 就是這一平臺的物理基礎。黃仁勛在演講中花費大量時間介紹 Vera Rubin,釋放出明確信號:在 AI 工程化階段,計算密度已成為第一性約束條件。過去,AI 產業習慣用“總算力”衡量能力規模,但在真實部署中,企業發現數據中心的空間、電力接入能力和散熱能力都是有限的,“無限擴展算力”在物理上并不可行。因此,問題從“能堆多少 GPU”,轉變為“在單位空間、單位功耗內,能持續運行多少 AI 計算”——這正是計算密度成為核心指標的原因。 

在展示 Rubin 的過程中,黃仁勛特意拿出實體 Vera CPU,足見其重要性。在 AI 工程化階段,CPU 不再只是“輔助處理器”,而是調度中樞、數據搬運協調者和系統穩定性的關鍵變量。Vera CPU 的核心特征包括:在功耗受限條件下,性能/瓦達到主流高端 CPU 的兩倍,同時顯著提升單線程性能,擁有更大的內存容量與更高帶寬。這些特性的目標只有一個:在有限能耗預算內,維持復雜 AI 系統的長期穩定運行。 

Vera Rubin 最具工程震撼力的,是其功耗與散熱表現。黃仁勛給出了一個反直覺的事實:Vera Rubin 的功耗約為上一代 Grace Blackwell 的兩倍,但系統層面的進風風量幾乎不變,冷卻水溫保持在 45°C,且無需冷水機組。在傳統數據中心設計中,冷卻系統是能耗大戶、成本大戶,也是部署復雜度最高的部分。而 Rubin 的散熱方案,重新定義了數據中心的工程邊界——超級計算系統第一次可以在“熱水冷卻”條件下穩定運行。

1767743429649143.png 

計算密度的提升必然帶來互連瓶頸,而 Vera Rubin 作為首批采用 TSMC 共封裝硅光(CPO)工藝的量產計算平臺,給出了物理解法。硅光直接集成到芯片封裝,提供 512 個端口 × 200Gbps 的互連能力,大幅降低了功耗與延遲。如果說 Rubin 解決的是“計算密度”問題,那么硅光互連解決的,就是高密度計算系統的“血液循環”問題。當 Rubin 平臺、Vera Rubin、散熱工程與硅光互連構成完整圖景時,一個包含高計算密度、可控能耗、可復制部署、與軟件棧深度耦合的系統閉環已然形成。這意味著 AI Factory 不再是實驗室中的概念猜想,而是擁有明確物理實現路徑的系統工程。 

Physical AI:AI 必須對真實世界負責 

能夠的AI,才是真正可持續發展的AI,也才是能夠支撐英偉達繼續站在全球市值頂峰的AI。黃仁勛明確指出:如果 AI 只能停留在數字世界,它的經濟與社會價值將十分有限。 

生成式 AI 的成功,得益于相對“寬容”的環境:輸出錯誤通常不會立刻造成物理后果,延遲可以被用戶容忍,系統失敗往往只是體驗下降。但一旦 AI 進入物理世界,這些前提全部失效?!癙hysical AI”(物理 AI)是貫穿黃仁勛整場演講的思想主線,因為對英偉達來說,如果僅靠生成式AI,現在已經是巔峰,自己的好伙伴OpenAI依然找不到穩定的盈利模式。而如果切換到物理AI的世界,那么英偉達能夠擁抱的將是價值放大幾十倍且收益穩定增加的整個工業界。 

Physical AI 具有鮮明的特征:它擁有“身體”(車輛、機器人、設備),通過傳感器感知連續、嘈雜、不可完全建模的現實環境,決策會直接轉化為物理動作,且必須為結果承擔責任。在這種條件下,AI 的核心訴求不再是“是否足夠聰明”,而是“是否足夠可靠、可預測、可解釋”。黃仁勛強調,Physical AI 不是單一模型問題,而是系統問題。因為真實世界高度不可預測,極端情況無法完全通過真實數據采集,訓練與驗證也不能依賴“試錯”。因此,Physical AI 必須建立在四大技術支柱之上:大規模仿真(生成現實中難以或無法采集的數據)、強化學習與策略優化(在不完美信息下逐步收斂行為策略)、端側推理能力(滿足低延遲與高可靠性要求)、持續再訓練機制(將現實反饋重新注入模型體系)。這也解釋了為什么 NVIDIA 會在同一場演講中同時談及算力平臺、仿真系統與行業應用——Physical AI 天然要求全棧協同。

 1767743397510557.png

在所有 Physical AI 應用中,自動駕駛是安全要求最高、工程難度最大的場景之一。正因如此,NVIDIA 選擇在 上,將自動駕駛作為 Physical AI 的“樣板工程”,正式發布了 AIpamayo,并將其定義為“全球首個具備思考與推理能力的自動駕駛 AI”。與傳統自動駕駛系統不同,AIpamayo 的核心設計理念是端到端訓練 + 顯式推理輸出。它的輸入是多攝像頭與多傳感器數據,輸出不僅包括轉向、制動、加速等操作指令,還會同步給出即將采取的動作、采取該動作的原因以及對應的行駛軌跡。這種設計,直接回應了自動駕駛領域長期存在的核心痛點:系統為什么這么做?

AIpamayo 的訓練不依賴單一數據來源,而是建立在高度多樣化的數據體系之上:大規模真實道路行駛數據、人類駕駛示范數據、由 NVIDIA Cosmos 仿真系統生成的合成數據,以及數十萬級經過精細標注的高質量樣本。其目的非常明確:覆蓋真實世界中“長尾但關鍵”的駕駛場景。而真正讓 AIpamayo 能夠量產的關鍵,在于 NVIDIA 打造的雙 AV Stack 架構。黃仁勛坦率指出,無論模型多么先進,都無法通過有限測試證明“永遠安全”。自動駕駛系統一旦發生事故,代價遠高于任何數字世界應用。因此,工程上的保守不是落后,而是責任。

基于這一認知,NVIDIA 構建了罕見的雙棧結構:上層是具備推理與解釋能力的端到端 AI 系統 AIpamayo;下層是完全可追溯、規則與模型結合、構建周期超過 5-7 年的 Classical AV Stack。在兩者之上,是 Policy & Safety Evaluator(政策與安全評估器),其職責是實時評估當前場景風險、判斷 AIpamayo 是否具備足夠置信度,并在必要時回退至更保守的安全棧。這種架構遵循了航空、核電等高安全行業的基本原則:多樣性與冗余。

 1767743370529553.png

更重要的是,AIpamayo 并非停留在概念驗證階段,而是已有明確的量產與部署節奏。首款量產車型為 Mercedes-Benz CLA,已通過 NCAP 體系認證,獲得“全球最安全車型”評級。部署將從 Q1 美國、Q2 歐洲,逐步擴展到 Q3-Q4 的亞洲市場。且 AIpamayo 不是一次性交付,而是一個可持續通過 OTA 演進的 AI 系統。

在 NVIDIA 的敘事中,未來的制造工廠將是全新的形態:生產線本身是可學習系統,設備是 Physical AI Agent(物理 AI 智能體),整個工廠構成一個巨型機器人。在這里,AI 不再是輔助生產的工具,而是深度融入生產全鏈路的核心生產力 —— 從產品設計階段的仿真優化,到生產過程中的實時質量檢測、設備故障預判,再到供應鏈的動態調度與庫存優化,每一個環節都將由 AI 驅動。

為了實現這一愿景,NVIDIA 在 CES 2026 上與西門子共同官宣深化合作,這并非短期的技術拼接,而是延續雙方此前在工業元宇宙、生成式 AI 等領域協作基礎上的全面升級。此次合作明確將 NVIDIA 的 CUDA - X、Omniverse 等核心技術,深度集成到西門子全系列 EDA、CAE 工具及 Xcelerator 平臺中,真正把物理 AI 貫穿到工業全生命周期。比如西門子的 Simcenter Star - CCM + 軟件與 NVIDIA 技術結合后,寶馬集團借助該組合將整車瞬態空氣動力學仿真提速 30 倍,既減少了研發能耗,又大幅壓縮了測試成本。而在半導體領域,西門子 EDA 還將 CUDA - X 與 Grace Blackwell 平臺集成至 Calibre 平臺,實現了納米級精度的光學鄰近效應校正,讓芯片設計到制造的全流程更精準高效。

雙方的合作還重構了工廠運維與安全體系。西門子的 Industrial Copilot for Operations 搭載 NVIDIA RTX PRO  Blackwell 服務器版 GPU,借助 NVIDIA NeMo 微服務等技術,能幫車間人員快速處理設備維護、故障排查等工作,可節省 30% 的被動維護時間。同時,通過整合 NVIDIA BlueField DPU ,雙方還打造了 AI 驅動的工業網絡安全方案,為工廠的全天候穩定運行筑牢防線。黃仁勛在演講中特別提及,全新西門子工控機系列已通過 NVIDIA GPU 認證,這些設備能適應工廠高溫、多塵的惡劣環境,可支撐 AI 質檢、預測性維護等復雜任務,讓工業 AI 執行速度提升 25 倍。

黃仁勛強調,此次合作的核心價值在于 “標準化落地” 與 “規?;瘡椭啤?。此前工業 AI 常因定制化開發導致成本高、推廣難,而這次雙方構建的技術體系提供了通用模板。像造船巨頭 HD Hyundai 就借助該體系,通過生成式 AI 將船舶設計迭代周期從數天縮至數小時;富士康也利用相關技術開發數字孿生平臺,用于設計仿真機器人工作單元和整個工廠布局。無論是汽車裝配線、電子芯片封裝車間,還是重工業的高危作業場景,都能套用這套成熟方案快速完成 AI 改造。而黃仁勛后續還將與西門子 CEO 羅蘭德?布什對話,進一步敲定雙方在工業 AI 規?;七M中的具體規劃,讓合作從技術落地走向生態共建。 

點評:AI 工程化,是六萬億的起點

 總結CES 2026 黃仁勛整場演講主線邏輯:Rubin 平臺提供更強算力與更高效計算密度的基礎,Physical AI定義了應用方向,AIpamayo 驗證高安全場景的可行性,工業AI與AI Factory構成規?;涞芈窂?。 

時間仿佛回到了當初解決游戲玩家切實痛點的早期英偉達,只不過面對的是宏大了不知道多少倍的AI實際應用。黃仁勛用嚴謹的工程邏輯告訴產業界:AI 的下一階段,不再是想象力的競賽,也不是堆砌算力和調整模型參數的實驗,而是系統工程能力的較量,是一場從云到雨霧,從高高在上到潤物細無聲無處不在的AI工程應用新時代。 

這一次,英偉達要搶占的不是簡單的AI加速器市場,而是整個AI應用基礎設施的最底層,致力于成為構建所有物理AI應用的底座?,F在英偉達面對的不再是5萬億美元估值的市場,而是六萬億甚至十萬億估值的無垠藍海。



評論


相關推薦

技術專區

關閉