GPU進基站?AI-RAN的真爭議
過去一年,如果你關(guān)注通信行業(yè)的新聞,大概很難躲過「AI-RAN」這個詞。英偉達(dá)和軟銀牽頭成立的 AI-RAN 聯(lián)盟,T-Mobile 西雅圖的實驗室測試,Indosat 在印尼完成的 AI 通話演示——一連串的動態(tài)似乎在傳遞一個信號:GPU 即將大規(guī)模進入基站,AI 正在從「網(wǎng)絡(luò)上層」下沉到「無線底層」。
但如果你有機會和運營商的朋友聊一聊,會發(fā)現(xiàn)他們的態(tài)度遠(yuǎn)沒有發(fā)布會舞臺上那么激動。興奮是有的,但更多的是審慎、觀望,甚至是一絲不易察覺的疑慮:基站里真的需要塞進一塊 GPU 嗎?這筆賬到底怎么算?AI-RAN 究竟是一場技術(shù)革命,還是又一輪由芯片廠商主導(dǎo)的「競賽」?
基站里的「聰明」與「不聰明」
要理解 AI-RAN 到底想做什么,得先回到無線接入網(wǎng)這個老問題上。
通信行業(yè)一直有一個心照不宣的事實:在整個移動網(wǎng)絡(luò)里,無線接入網(wǎng)(RAN)是最「不聰明」的那一段。核心網(wǎng)早就虛擬化、云化了,各種開源平臺和通用服務(wù)器跑得風(fēng)生水起。但走到基站這一層,情況完全不同——專用芯片、封閉接口、定制化硬件,像一個黑盒子,外面的人進不去,里面的數(shù)據(jù)出不來。
這聽起來像個技術(shù)問題,但歸根結(jié)底是個經(jīng)濟問題。基站部署量太大了,一個中等規(guī)模的運營商可能擁有幾十萬個站點。在這個量級上,任何一點成本波動都會被放大到驚人的數(shù)字。專用芯片雖然不夠靈活,但它的功耗、成本、穩(wěn)定性經(jīng)過了幾十年的極致優(yōu)化,是運營商能夠接受的「最優(yōu)解」。
但問題也隨之而來。當(dāng) AI 開始滲透到網(wǎng)絡(luò)的每一個角落,當(dāng)運營商希望通過智能化來優(yōu)化覆蓋、提升容量、降低能耗時,RAN 成了那個最難下手的環(huán)節(jié)。你可以在核心網(wǎng)里隨便部署 AI 服務(wù)器,可以給運維中心配上一堆 GPU 來做網(wǎng)絡(luò)優(yōu)化,但走到基站門口,路就斷了。
AI-RAN 的野心,就是想打通這最后一公里。但需要厘清的是,AI 與 RAN 的關(guān)系其實是雙向的。業(yè)界通常用兩個詞來定義這種關(guān)系:一個是「AI for RAN」,即用 AI 來優(yōu)化無線接入網(wǎng)的性能——信道估計、波束管理、負(fù)載均衡,這些都是 AI 賦能網(wǎng)絡(luò)的典型場景;另一個是「RAN for AI」,即把基站本身變成 AI 算力的提供者,讓遍布各地的站點成為分布式推理的基礎(chǔ)設(shè)施。英偉達(dá)的邏輯很簡單:與其讓 AI 在基站外面轉(zhuǎn)悠,不如直接把它請進去,讓基站自己變聰明。

聽起來很美好。但基站真的需要那么聰明嗎?
GPU 進基站,誰在買單
這就要算一筆賬了。
先看成本。一塊適合基站的 GPU,價格不是小數(shù)。功耗也不是小數(shù)。如果要在幾十萬個基站里全部部署,那將是一筆天文數(shù)字的資本開支。而運營商現(xiàn)在的日子并不好過,流量增長但收入不增,是過去十年全球電信行業(yè)的普遍困境。在這種背景下,讓運營商掏錢給每個基站升級 GPU,難度可想而知。
三星電子美國公司網(wǎng)絡(luò)事業(yè)部戰(zhàn)略與營銷副總裁 Alok Shah 表示:「業(yè)界正在謹(jǐn)慎評估與在基站中引入 GPU 相關(guān)的總擁有成本模型和商業(yè)案例。迄今為止,在站點層面全面轉(zhuǎn)向 GPU 計算在資本支出和運營成本上都面臨挑戰(zhàn),但該領(lǐng)域的創(chuàng)新很活躍。我們可能會發(fā)現(xiàn),在未來幾年內(nèi),會有一部分站點的部署在經(jīng)濟賬上是可行的。」換句話說,賬還沒算清楚,誰也不敢輕易拍板。
再看必要性。基站真的需要 GPU 嗎?還是說,現(xiàn)有的 CPU 已經(jīng)夠用了?這其實是一個被忽略的問題。新一代的 x86 CPU,性能早已不可同日而語。很多 AI 推理任務(wù),尤其是輕量級的、對時延要求不高的任務(wù),CPU 完全能應(yīng)付。如果 CPU 能解決,為什么要多花一筆錢去買 GPU?
一位國內(nèi)運營商的專家說得更直白:如果說算力一定要放到基站里,而且一定要放 GPU,我打個問號。成本太高,運營商根本接受不了。而且,把算力鎖定在基站里,反而限制了對算力的靈活調(diào)度——邊緣節(jié)點、匯聚機房、中心云,算力應(yīng)該是一個可以動態(tài)調(diào)配的資源池,而不是固化在每一個站點。但也有不同觀點認(rèn)為,按演示數(shù)據(jù)推算,單站閑置算力若按云計算市場價的 70% 出租,五年內(nèi)就能收回 30% 的基站建設(shè)成本。
這些話背后,折射出一個更本質(zhì)的分歧:AI-RAN 究竟應(yīng)該怎么部署,是「全量升級」還是「按需引入」?英偉達(dá)作為芯片廠商,當(dāng)然希望 GPU 鋪得越廣越好。但運營商要考慮的是,到底哪些場景真正需要基站級別的 AI 能力。
哪些場景「非 AI 不可」
如果說 5G 時代,AI 還算是個「加分項」,那么到了 6G,情況可能會發(fā)生變化。通信行業(yè)普遍認(rèn)為,6G 網(wǎng)絡(luò)將面臨一個根本性的挑戰(zhàn):網(wǎng)絡(luò)的復(fù)雜程度將達(dá)到「超越人類規(guī)模」的閾值,人腦已經(jīng)無法實時管理。屆時,AI 不再是可選項,而是必選項。
這不是危言聳聽。5G 時代,基站已經(jīng)有了大規(guī)模 MIMO 天線,波束賦形的參數(shù)配置已經(jīng)復(fù)雜到需要算法輔助。到了 6G,頻段更高、天線更多、業(yè)務(wù)更雜,靠人工腳本和預(yù)設(shè)策略去管理,幾乎不可能。換句話說,未來的網(wǎng)絡(luò)必須是「自智」的——自己感知、自己決策、自己優(yōu)化。
這就把問題倒過來了:不是「基站里為什么要放 AI」,而是「不放 AI 的基站還能不能跑得動」。
具體到場景,有幾個方向已經(jīng)比較清晰。
一個是信道估計。無線信號在空中傳播,受到干擾、衰落、遮擋的影響,基站需要實時估計信道狀態(tài),才能決定用什么樣的參數(shù)發(fā)送數(shù)據(jù)。傳統(tǒng)算法有局限,而 AI 可以通過學(xué)習(xí)歷史數(shù)據(jù),更準(zhǔn)確地預(yù)測信道變化。富士通旗下的一個團隊給出的數(shù)據(jù)是:用 AI 改善信道估計,可以把上行鏈路性能提升 20%,某些場景下甚至能達(dá)到 50%。
另一個是波束管理。大規(guī)模 MIMO 基站可以生成多個窄波束,覆蓋不同方向的用戶。但用戶是移動的,波束需要跟著人走。如果波束切換不及時,就會掉線。AI 可以預(yù)測用戶的移動軌跡,提前把波束切過去,讓用戶的體驗更流暢。
還有頻譜共享。傳統(tǒng)做法是,如果某個頻段受到干擾,系統(tǒng)干脆把整個頻段關(guān)掉。但 AI 可以做得更精細(xì)——識別出干擾源,只屏蔽受影響的頻率,其他部分照常使用。MITRE 在 2025 年展示的一個應(yīng)用,做的就是這件事。
這些場景的共同點是:需要實時響應(yīng)、需要本地決策、無法把所有數(shù)據(jù)都傳回中心處理。這正是基站級 AI 的意義所在。
基站「夜間兼職」
如果說「AI for RAN」是為了讓網(wǎng)絡(luò)跑得更順,那么「RAN for AI」則是在探索另一種可能性:基站能不能不只是花錢的基礎(chǔ)設(shè)施,還能成為賺錢的資產(chǎn)?
軟銀和諾基亞最近做了一個很有意思的試驗。他們在日本搭建了一套基于英偉達(dá) GPU 的 AI-RAN 平臺,白天,基站的算力優(yōu)先保障 5G 通信——處理用戶的語音、視頻、數(shù)據(jù)請求;到了夜間,當(dāng)網(wǎng)絡(luò)流量大幅下降,這些原本閑置的 GPU 算力并沒有空轉(zhuǎn),而是通過軟銀的 AITRAS 編排器自動切換成「算力供應(yīng)商」模式,為第三方客戶運行 AI 推理任務(wù)。
換句話說,同一個基站,白天是通信基站,晚上變成了邊緣 AI 服務(wù)器。諾基亞首席技術(shù)兼 AI 官 Pallavi Mahajan 對此評價:「隨著全球 AI 處理需求加速增長,這個項目展示了如何利用分布式網(wǎng)絡(luò)資源來提供可擴展、高效且可持續(xù)的 AI 服務(wù)。」
軟銀先進技術(shù)研究所副總裁 Ryuji Wakikawa 則說得更直接:「在 AI-RAN 中,最大化計算資源的價值非常重要。我們增強了 AITRAS 編排器,使其能夠?qū)①Y源分配給外部 AI 工作負(fù)載,從而將這些資源作為新的收入來源加以利用。」
這種「基站夜間兼職」的模式,觸及了一個更深層的變革:基站正在從單純的「成本中心」向可能的「利潤中心」演進。當(dāng)然,這還只是試驗。客戶畫像還不清晰——是賣給互聯(lián)網(wǎng)公司做邊緣推理?還是給工業(yè)企業(yè)做機器視覺?商業(yè)模式還在探索中。但它至少打開了一個想象空間:如果全城的基站都能在夜間貢獻(xiàn)算力,那將是一張多么龐大的分布式計算網(wǎng)絡(luò)。
兩條腿走路:GPU 與 CPU 的長期共存
回到最初的問題:基站里到底需不需要 GPU?
最可能的答案是:部分需要,部分不需要。就像今天的網(wǎng)絡(luò)設(shè)備,有的用專用芯片,有的用通用 CPU,有的用 FPGA,各取所需。未來的基站也不會是單一形態(tài),而是根據(jù)場景和成本,靈活選擇計算架構(gòu)。
對于城市熱點、高流量區(qū)域,基站可能確實需要 GPU 來支撐復(fù)雜的 AI 任務(wù);對于偏遠(yuǎn)地區(qū)、低負(fù)載站點,CPU 就夠用了,沒必要多花錢。還有一種可能是,GPU 不是部署在每一個基站,而是部署在邊緣節(jié)點,覆蓋一片區(qū)域內(nèi)的多個基站,兼顧算力供給和成本控制。
英偉達(dá)自己也意識到了這一點。它的 AI Aerial 平臺,核心賣點之一就是「資源共享」——同一塊 GPU,可以動態(tài)分配給 RAN 任務(wù)和 AI 任務(wù),忙時做通信,閑時做推理,提高利用率,攤薄成本。這其實是在回應(yīng)運營商的成本顧慮:你可以不用為 AI 專門買一塊 GPU,它可以和 RAN 共用一塊。
軟銀在日本做的試驗,就是這個思路。他們用一套系統(tǒng)同時跑 5G 和第三方 AI 應(yīng)用,證明了兩者可以共存,且互不干擾。對于運營商來說,這提供了一種新的可能性:基站不再只是成本中心,還可以變成算力服務(wù)的輸出節(jié)點,創(chuàng)造新的收入來源。
當(dāng)然,這還只是試驗。從試驗到規(guī)模化商用,還有很長的路。標(biāo)準(zhǔn)怎么定、接口怎么統(tǒng)一、業(yè)務(wù)模式怎么設(shè)計,都是待解的難題。業(yè)內(nèi)人士的回答是:「客戶畫像還不清晰,是賣給互聯(lián)網(wǎng)公司做邊緣推理?還是給工業(yè)企業(yè)做機器視覺?商業(yè)模式還在探索中。」
結(jié)語
站在 2026 年回望,AI-RAN 的討論已經(jīng)從「要不要做」轉(zhuǎn)向了「怎么做」。英偉達(dá)用兩年時間,把一個概念做成了一個產(chǎn)業(yè)聯(lián)盟,從 T-Mobile 到軟銀,從諾基亞到思科,越來越多的大玩家加入其中。這本身就說明,方向是對的。
但「方向?qū)Α共坏扔凇嘎涞乜臁埂k娦判袠I(yè)有其自身的節(jié)奏,幾億用戶的網(wǎng)絡(luò)不能隨便折騰,穩(wěn)定可靠永遠(yuǎn)是第一位的。「AI-RAN 架構(gòu)能否實現(xiàn)規(guī)模化商用,關(guān)鍵取決于其性能表現(xiàn)、成本控制與運行穩(wěn)定性。今年 MWC 上的各類演示顯示,相關(guān)技術(shù)基礎(chǔ)正持續(xù)成熟,云計算、人工智能與通信基礎(chǔ)設(shè)施的融合,已從概念構(gòu)想逐步進入可控驗證落地階段。」
「AI 進基站,不會是顛覆式的推倒重來,而是漸進式的滲透融合。」這個過程可能需要五年、十年,但一旦完成,網(wǎng)絡(luò)將不再是今天的網(wǎng)絡(luò)。
到那時,基站不僅是收發(fā)信號的鐵塔,還是感知世界的節(jié)點;網(wǎng)絡(luò)不僅是傳輸數(shù)據(jù)的管道,還是承載智能的基礎(chǔ)設(shè)施。而這一切的起點,正是今天這些充滿爭議、有待驗證的試驗和討論。












評論