久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > AI電力激增背后的液冷管道

AI電力激增背后的液冷管道

作者: 時(shí)間:2026-03-11 來源: 收藏

AI 工作負(fù)載的算力需求正在飛速飆升。本能的反應(yīng)是什么?建造更多。但這種策略正變得越來越難以實(shí)施。除了建設(shè)大型的現(xiàn)實(shí)難題外,電網(wǎng)容量有限,就連接入電網(wǎng)都變得困難重重。再加上新設(shè)施帶來的資金與環(huán)境成本,很明顯,單純靠擴(kuò)張規(guī)模并非解決之道。

然而,更有效的策略是:通過針對性的基礎(chǔ)設(shè)施升級,在現(xiàn)有占地面積內(nèi)釋放更多性能,擴(kuò)大容量、提升效率并加快部署速度。

問題在于,每一代新產(chǎn)品中,GPU 和其他 AI 加速器都在推高功耗和散熱量。這些飛躍正在讓傳統(tǒng)設(shè)計(jì)過時(shí),并迫使基礎(chǔ)設(shè)施策略發(fā)生根本性轉(zhuǎn)變。例如 NVIDIA 的 GB200 超級芯片,每個(gè)模塊集成兩顆布萊克韋爾 GPU 和一顆格蕾絲 CPU,功耗最高可達(dá)約 2700 瓦,凸顯出下一代 AI 系統(tǒng)的熱負(fù)荷正在快速攀升。

只要采用正確的冷卻、供電和機(jī)架級集成方案,運(yùn)營商就能在不新建設(shè)施的前提下,大幅提高算力密度和性能。

理解數(shù)據(jù)中心算力密度面臨的約束

總體而言,傳統(tǒng)數(shù)據(jù)中心并非為大語言模型(LLM)和其他高密度 AI 工作負(fù)載而設(shè)計(jì)。在這類環(huán)境中進(jìn)行擴(kuò)容面臨四大關(guān)鍵挑戰(zhàn):

  • 空間限制:現(xiàn)有機(jī)架布局通常沒有足夠物理空間容納現(xiàn)代高密度配置。

  • 供電約束:傳統(tǒng)配電單元(PDU)和開關(guān)設(shè)備從未設(shè)計(jì)用于為功率密度 60 至 120 千瓦甚至更高的機(jī)架供電。

  • 冷卻低效:即使風(fēng)量開到最大,傳統(tǒng)風(fēng)冷系統(tǒng)也無法散出新一代 AI 處理器的熱量。

  • 可持續(xù)性壓力:隨著數(shù)據(jù)中心用電量在全球電力消耗中的占比不斷上升,運(yùn)營商面臨來自監(jiān)管機(jī)構(gòu)、投資者和客戶越來越大的壓力,要求提高能源效率。

這些約束都會影響可靠性、正常運(yùn)行時(shí)間和投資回報(bào)率。工程師和系統(tǒng)集成商正在尋找在不停機(jī)的情況下提升性能的方法,而在每瓦電力、每一寸空間都至關(guān)重要的情況下,這絕非易事。

芯片直連為 AI 釋放更大功率

散熱是高性能計(jì)算最直接、最突出的約束。風(fēng)冷系統(tǒng)已經(jīng)達(dá)到實(shí)際極限。即使配備架空地板、密閉通道和優(yōu)化氣流,傳統(tǒng)方案也無法跟上 AI 芯片的熱特性。

芯片直連已成為一種可行的解決方案。通過將冷卻液直接引到芯片表面,并精準(zhǔn)對準(zhǔn)熱點(diǎn),這種方式大幅提升傳熱效率,穩(wěn)定 CPU 和 GPU 溫度,并最小化影響性能的溫度梯度。

盡管在技術(shù)上具備優(yōu)勢,但往往被誤解為需要大規(guī)模基礎(chǔ)設(shè)施改造。而事實(shí)并非總是如此。

獨(dú)立式閉環(huán)液冷系統(tǒng)可以提供一種實(shí)用、漸進(jìn)式的升級路徑。這些方案可直接集成到標(biāo)準(zhǔn)服務(wù)器配置中,1U 規(guī)格可支持高達(dá) 1200 瓦,2U 規(guī)格可支持 1500 瓦甚至更高,且無需外部管路或配電單元。運(yùn)營商通過大幅降低風(fēng)量需求,平均可節(jié)省 15% 的電力,所有這些都在現(xiàn)有機(jī)架空間和功率預(yù)算內(nèi)實(shí)現(xiàn)。

對于新建項(xiàng)目或大規(guī)模設(shè)施升級,機(jī)房級液冷值得認(rèn)真考慮。這類系統(tǒng)可支持每路插槽超過 3000 瓦,機(jī)架功率密度接近 1 兆瓦。

雖然帶管路的液冷需要更多基礎(chǔ)設(shè)施,且可能占用更多機(jī)架物理空間,但它能讓企業(yè)在相同的數(shù)據(jù)中心總占地面積內(nèi)大幅提升算力密度。這意味著你可以在不擴(kuò)建設(shè)施的情況下擴(kuò)容 AI 工作負(fù)載。前期投資更高,但長期投資回報(bào)率十分可觀:更高的算力密度、更低的能耗、更高的可靠性。

對于希望在不新建數(shù)據(jù)中心的前提下最大化性能的企業(yè),圍繞先進(jìn)散熱方案進(jìn)行設(shè)計(jì),能夠帶來巨大的效率提升,并為規(guī)模化 AI 打造面向未來的基礎(chǔ)設(shè)施。

液冷并非非此即彼的選擇。運(yùn)營商可以從小規(guī)模起步,部署能夠無縫融入現(xiàn)有環(huán)境的獨(dú)立系統(tǒng)。通過在芯片層面提升熱傳輸效率,這些方案釋放出新的空間,能夠在相同占地面積內(nèi)實(shí)現(xiàn)更高功率密度、更好性能和更高效率。本質(zhì)上,液冷讓在不擴(kuò)大空間和功率預(yù)算的前提下提升算力密度成為可能。

重新思考兆瓦級機(jī)架的配電與供電

僅靠散熱創(chuàng)新無法解決下一代算力面臨的挑戰(zhàn)。隨著機(jī)架功率密度飆升至 120 千瓦以上,并且超大規(guī)模運(yùn)營商將 1 兆瓦機(jī)架架構(gòu)納入路線圖,行業(yè)需要從根本上重新思考供電和配電方式。傳統(tǒng)數(shù)據(jù)中心許多仍配備為 5 至 15 千瓦負(fù)載設(shè)計(jì)的 PDU 和開關(guān)設(shè)備,與 AI 優(yōu)化型基礎(chǔ)設(shè)施的需求越來越不匹配。

這種不匹配是一種供電隱患。升級已不再是可選方案,而是實(shí)現(xiàn)可擴(kuò)展性、高效率和高韌性的前提。高效率 PDU、直流母線、模塊化電源架和分離式供電機(jī)架平臺,正在為 AI 工作負(fù)載實(shí)現(xiàn)更安全、更高效的供電。

超大規(guī)模運(yùn)營商正引領(lǐng)向分離式基礎(chǔ)設(shè)施轉(zhuǎn)型,將供電、冷卻和 IT 設(shè)備拆分為模塊化、可獨(dú)立擴(kuò)容的組件。例如谷歌的 Mt. Diablo 項(xiàng)目,推出了交流轉(zhuǎn)直流的側(cè)掛式電源機(jī)架,提供 ±400 伏直流電,單機(jī)架支持最高 1 兆瓦功率,并回收 IT 機(jī)架內(nèi)的寶貴空間用于算力部署。這種方案讓運(yùn)營商能夠在不擴(kuò)大物理占地面積的前提下提升密度。

這類創(chuàng)新正吸引更廣泛的解決方案提供商生態(tài)系統(tǒng)參與。諸如 Flex 等公司不僅在被動(dòng)響應(yīng),更是在構(gòu)建未來。

在 2025 年 OCP 全球峰會上,F(xiàn)lex 推出了其 AI 基礎(chǔ)設(shè)施平臺 —— 一款面向吉瓦級數(shù)據(jù)中心的全集成解決方案。該平臺采用 1 兆瓦機(jī)架,支持 ±400 伏直流供電,并可向 800 伏直流演進(jìn),支持最高 1.8 兆瓦的模塊化散熱,以及預(yù)制式系統(tǒng),可大幅縮短部署時(shí)間。這是一種更智能的擴(kuò)容模式,在不擴(kuò)大占地面積的前提下最大化密度和速度。

智能電源管理:AI 格局中被忽視的一環(huán)

同樣重要的是電力管理方式。閑置容量 —— 因分配不均而未被利用的能源 —— 仍然是影響運(yùn)營效率的隱形消耗。軟件定義和模塊化電源系統(tǒng)支持動(dòng)態(tài)分配,確保電力精準(zhǔn)輸送到需要的地方。這不僅提高利用率和可靠性,還降低過度配置和不必要資本支出的風(fēng)險(xiǎn)。

隨著數(shù)據(jù)中心采用直流配電,固態(tài)變壓器等技術(shù)旨在簡化轉(zhuǎn)換環(huán)節(jié)。它們有助于提高能源效率,并可大幅縮小配電室占地面積 —— 據(jù) Flex 估計(jì),到 2030 年可縮小高達(dá) 90%。這帶來兩大顯著優(yōu)勢:以更小的占地面積實(shí)現(xiàn)相同容量,從而降低建設(shè)成本;或在相同空間內(nèi)部署更多機(jī)架,從而提高算力密度。

對系統(tǒng)集成商而言,挑戰(zhàn)在于無中斷執(zhí)行。停機(jī)是不可接受的。這就是行業(yè)正向熱插拔、前置式設(shè)計(jì)轉(zhuǎn)型的原因,這類設(shè)計(jì)簡化了在線環(huán)境中的安裝和維護(hù)。

機(jī)架級集成:冷卻、供電與算力的交匯點(diǎn)

真正的密度提升,發(fā)生在冷卻、供電和算力不再各自為政,而是在機(jī)架層面協(xié)同工作之時(shí)。有前瞻性的領(lǐng)導(dǎo)者正在采用將這些功能整合為統(tǒng)一生態(tài)系統(tǒng)的架構(gòu),而非將每個(gè)子系統(tǒng)獨(dú)立看待。

通過這種方式,基于開放標(biāo)準(zhǔn)的一體化機(jī)架能夠?qū)崿F(xiàn)跨代硬件的互操作性,簡化維護(hù),而液冷設(shè)計(jì)則確保最佳散熱性能。隨著芯片熱設(shè)計(jì)功耗(TDP)持續(xù)上升,這種模式支持長期可擴(kuò)展性。

最有效的方案之一是部署交鑰匙、垂直一體化的液冷機(jī)架解決方案,將供電、熱管理和 IT 硬件整合為單一的預(yù)工程化系統(tǒng)。這些方案消除了復(fù)雜的多廠商集成需求,實(shí)現(xiàn)更快部署、簡化運(yùn)營和單一責(zé)任點(diǎn)。

合作伙伴關(guān)系同樣重要。通過與提供完整機(jī)架級系統(tǒng)(包含匹配的冷卻、供電和算力組件)的解決方案提供商合作,運(yùn)營商可獲得單一聯(lián)系點(diǎn)和簡化的保修服務(wù)。這降低了復(fù)雜性和風(fēng)險(xiǎn),加快部署速度,讓數(shù)據(jù)中心能夠更快擴(kuò)容,避免常見的集成難題。

對系統(tǒng)集成商而言,這些架構(gòu)通過互操作性測試、性能驗(yàn)證以及為優(yōu)化 AI 負(fù)載部署預(yù)集成機(jī)架解決方案,創(chuàng)造了提供價(jià)值的新機(jī)會。通過將先進(jìn)液冷與高效率供電相結(jié)合,運(yùn)營商能夠在算力輸出提升的同時(shí)降低設(shè)施總能耗,與風(fēng)冷系統(tǒng)相比,機(jī)架級功耗可降低數(shù)千瓦。

這些效率提升直接轉(zhuǎn)化為每平方英尺更高的算力密度。當(dāng)冷卻和供電系統(tǒng)高效運(yùn)行時(shí),機(jī)架能夠在不超出設(shè)施限制的前提下支持更高功率和熱負(fù)荷。這意味著每單位面積更多算力,最大化現(xiàn)有空間價(jià)值,在不擴(kuò)大數(shù)據(jù)中心占地面積的前提下提供更高性能。

高壓直流母線和鈦金級電源進(jìn)一步提高轉(zhuǎn)換效率,減少廢熱和后續(xù)散熱需求。

在相同空間內(nèi)容納全新基礎(chǔ)設(shè)施

未來的數(shù)據(jù)中心不必更大,才能滿足 AI 需求;它只需要更具戰(zhàn)略性的設(shè)計(jì)。通過聚焦正確的基礎(chǔ)設(shè)施升級,運(yùn)營商能夠在現(xiàn)有場地內(nèi)解鎖 AI 工作負(fù)載所需的密度和性能。

冷卻和供電是最關(guān)鍵的起點(diǎn)。通過一體化、模塊化、支持液冷的設(shè)計(jì)協(xié)同應(yīng)對這些挑戰(zhàn)的工程師和系統(tǒng)集成商,將能夠讓數(shù)據(jù)中心與每一代新算力硬件同步演進(jìn),從而真正支撐越來越耗電的 AI 解決方案。

通過重新思考基礎(chǔ)設(shè)施,你可以在有限空間內(nèi)獲得更大價(jià)值。


評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉