NVIDIA AI服務器代工出貨模式丕變! 臺系三大ODM廠率先入列
NVIDIA新款AI服務器代工出貨模式驚傳出現變化,CEO黃仁勛恐將更緊握系統組裝掌控權。
供應鏈傳出,NVIDIA下一代Vera Rubin架構AI服務器機柜代工,將由緯創、廣達及鴻海三家負責組裝到L10,再由NVIDIA出貨給客戶,此做法將讓NVIDIA對制造更深入掌控。 此外,也讓NVIDIA的AI服務器生產更集中在少數廠商,成為新的競爭門檻。
供應鏈業者指出,NVIDIA尚未正式通知供應鏈,然而已在積極協調ODM業者,制訂更細節的生產流程。 業界分析,NVIDIA一直想辦法將自家的AI服務器機柜標準化,不僅簡化生產流程、也有利于量產加速,業者笑說,「即使(NVIDIA)已掌握了95%,也還有5%要達成」。
服務器機柜組裝,主要分為11個階段(Level),L1~6主要以各種模組組裝為主,出貨為主板形式; L7~L9階段再加上CPU、GPU、HDD、內存等關鍵零組件; L10進行系統組裝與測試; L11是整機柜組裝。
業界傳出,過去NVIDIA的AI服務器機柜,可粗分為兩段,第一段為做到L6的主板,第二段是從L6,再加關鍵零組件到L10,然在2026年下半將開始量產的Vera Rubin架構,NVIDIA有意指定三家ODM做到L10,交貨給NVIDIA后,再交給要做L11的廠商。
業界傳出,被傳指定的三大ODM,分別是緯創、鴻海與廣達。
其中緯創與鴻海,原本就是英偉達在GB(Grace Blackwell)架構的運算板(Compute Board)供應商,而鴻海與廣達,是兩大NVIDIA的GB機柜組裝供應商。 上述三大廠,都不對客戶制造流程做評論。
據悉,NVIDIA的GB200與GB300機柜,由緯創、鴻海生產運算板,出貨給NVIDIA后,再由NVIDIA出貨給ODM做后段組裝,未來NVIDIA想要進行的商業模式,是由指定供應商直接做到L10后,出貨給NVIDIA,再由NVIDIA出貨給ODM做L11組裝。
過去各家在拿到L6階段完成的運算板后,再進行后段組裝,各家會有不同設計,然未來若采用新的出貨模式,各家在NVIDIA機柜能夠「變化」的機會減少,頂多在L11部分,做些不同設計與變化,未來的NVIDIA高階AI服務器機柜,「長相」也會更統一。
事實上,不只ODM組裝流程傳有變化,散熱模組廠也傳出,過去由云端服務大廠(CSP)采購的散熱模組,在Vera Rubin架構時,將會由NVIDIA統一指定采購后,再交由ODM組裝。 散熱廠分析,此做法也是讓流程更標準化,有利于NVIDIA掌握量產良率與速度。
英業達日前召開法說會,外界詢問上述傳聞的新出貨模式對英業達的影響。 總經理蔡枝安說明,未收到NVIDIA正式通知,只是業界在流傳,但對英業達影響有限,若真如傳聞,英業達就直接向NVIDIA購買L10的產品,再進行L11后出給客戶。
廣達也在法說會上,被各界詢問相關傳聞,廣達說明,將來產業趨勢是集中在少數具有系統整合與財務實力的廠商,競爭態勢也會更集中。 若客戶真如傳聞所說,從L6到L10,只是再度確認AI服務器制造集中化的競爭現象,樂于看待此發展。
雖然,鴻海在12日法說會中并未提到相關傳問,但對于AI機柜與AI產業的發展,董事長劉揚偉抱持正面樂觀態度,除表明2026年AI機柜出貨量預計倍增,且產能持續擴充,并將持續提升自動化與測試良率外,亦強調屆時市占率亦進一步提升。
同時,鴻海在AI產業發展上,也不僅限于機柜產品,劉揚偉表示,除了朝上游零組件、下游數據中心與微型數據中心(MDC)持續布局外,也將橫向往產業的應用與營運端發展,在應用AI算力持續進行LLM訓練外,也將涉足超算中心的營運,成為NVIDIA的云端合作伙伴(NCP),力求跳脫AI服務器機柜市場競爭的態勢明顯。




評論