中國科學家開發全新芯片,突破模擬計算百年難題
據 北京大學人工智能研究院消息,一支由研究員 孫中及其合作者領導的科研團隊,在國際期刊 Nature Electronics上發表重要論文,報道了一項計算架構領域的突破性進展。該團隊成功研發出一款基于電阻式隨機存取存儲器(RRAM)技術的高精度、可擴展模擬矩陣計算芯片。值得注意的是,這是首次有模擬計算芯片的精度達到了可與數字系統匹敵的水平——將傳統模擬計算的精度提升了驚人的 五個數量級。
在性能測試方面,該芯片在解決大規模 MIMO(多輸入多輸出)信號檢測及其他關鍵科學計算任務時,展現出其計算吞吐量與能效比目前頂級數字處理器(GPU)高出數百至數千倍。
這一成果不僅標志著中國科學家在克服模擬計算這一被困擾逾百年的難題上邁出關鍵一步,也代表了在“后摩爾時代”(Post-Moore Era)中,計算范式轉變的重大突破。此項創新為應對人工智能、大規模模型訓練及未來 6G 通信系統不斷增長的計算需求,開辟了全新路徑。
研究負責人孫中指出,此項研究具有廣泛的應用潛力,可為多種計算場景提供支撐,并可能從根本上重塑未來的計算格局。在下一代 6G 通信系統中,該芯片有望使通信基站實時處理大量天線信號、功耗極低,從而顯著提升網絡容量與能效。在迅速發展的人工智能領域,該技術預計可加速大型模型訓練中的二階優化算法,顯著提升訓練效率。他補充道:“更重要的是,其低功耗特性將使復雜信號處理與端上 AI 訓練-推理能夠直接運行,極大減少對云端的依賴,推動邊緣計算踏入新階段?!?nbsp;
從技術層面來看,這款芯片基于 RRAM 的模擬矩陣運算架構打破了長期以來模擬計算因噪聲、漂移、器件不一致性而難以實現高精度的瓶頸。類似架構通過電流、電阻等模擬物理量直接實現矩陣運算(例如乘法、加法、求解線性方程組),而無需完全依賴數字邏輯。此前,模擬系統在精度與穩定性方面難以與數字系統抗衡。此次研究表明,通過材料、器件、算法和系統協同優化,模擬計算的精度門檻已被大幅突破。
此外,從產業化視角來看,雖然目前這款芯片仍處于科研階段,但其突破意義顯著。未來若能實現大規模制造、商業化部署,可能帶來以下幾方面影響:
大幅提升邊緣設備與通信基站的能效與處理能力,加速 AI 與 6G 場景落地;
改變傳統依賴大型數字處理器的數據中心計算模式,推動“小體量、高效率” AI 硬件趨勢;
在全球計算產業格局中增強中國在先進計算架構領域的話語權與自主創新能力。
不過,該研究也并非無挑戰可言。產業化仍需解決的關鍵工程問題包括:器件一致性、規模制造良率、噪聲與溫度穩定性、軟件與硬件生態適配、系統可靠性與壽命等。專家指出,從實驗室突破到大規模商用,還需要一段時間。
總的來看,這項突破式研究不僅在技術上代表一次“跨越”,更在戰略層面具有里程碑意義。它預示著,在計算架構瓶頸愈發顯著的時代,模擬計算可能重新成為推動性能與效率躍升的重要路徑。未來的計算可能不僅僅是數字邏輯的演進,而且是物理量、材料、器件與系統協同創新的綜合體現。












評論