Day-0支持|摩爾線程MTT S5000率先完成對(duì)GLM-5的適配
2月11日,智譜正式發(fā)布新一代大模型GLM-5。摩爾線程基于SGLang推理框架,在旗艦級(jí)AI訓(xùn)推一體全功能GPU MTT S5000上,Day-0完成了全流程適配與驗(yàn)證。
憑借MUSA架構(gòu)廣泛的算子覆蓋與強(qiáng)大的生態(tài)兼容能力,摩爾線程成功打通了模型推理全鏈路,并深度釋放MTT S5000的原生FP8加速能力,在確保模型精度的同時(shí)顯著降低了顯存占用,實(shí)現(xiàn)了GLM-5的高性能推理。此次快速適配,不僅印證了MUSA軟件棧的成熟度,更充分展現(xiàn)了國產(chǎn)全功能GPU對(duì)最新大模型即時(shí)、高效的支持能力。

GLM-5與MTT S5000的國產(chǎn)雙強(qiáng)聯(lián)合,將為開發(fā)者帶來可對(duì)標(biāo)國際頂尖模型的極致編程體驗(yàn)。無論是在函數(shù)補(bǔ)全、漏洞檢測(cè)還是Debug場(chǎng)景中,該組合均表現(xiàn)卓越,以顯著增強(qiáng)的邏輯規(guī)劃能力,從容應(yīng)對(duì)各類復(fù)雜的長(zhǎng)程任務(wù)挑戰(zhàn)。
GLM-5核心特性:
定義Agentic Engineering新高度
作為GLM系列的最新里程碑版本,GLM-5定位為當(dāng)下頂尖的Coding模型,整體性能較上一代提升20%。其核心突破在于Agentic Engineering(代理工程)能力——不僅具備深厚的代碼功底,更擁有處理復(fù)雜系統(tǒng)工程與長(zhǎng)程Agent任務(wù)的實(shí)力,能夠?qū)崿F(xiàn)從需求到應(yīng)用的端到端開發(fā)。

在全球權(quán)威的Artificial Analysis榜單中,GLM-5位居全球第四、開源第一。

GLM-5在編程能力上實(shí)現(xiàn)了對(duì)齊Claude Opus 4.5,在業(yè)內(nèi)公認(rèn)的主流基準(zhǔn)測(cè)試中取得開源模型SOTA。在SWE-bench-Verified和Terminal Bench 2.0中分別獲得77.8和56.2的開源模型最高分?jǐn)?shù),性能超過 Gemini 3 Pro。

在內(nèi)部Claude Code評(píng)估集合中,GLM-5在前端、后端、長(zhǎng)程任務(wù)等編程開發(fā)任務(wù)上顯著超越上一代的GLM-4.7(平均增幅超過20%),能夠以極少的人工干預(yù),自主完成Agentic長(zhǎng)程規(guī)劃與執(zhí)行、后端重構(gòu)和深度調(diào)試等系統(tǒng)工程任務(wù),使用體感逼近Opus 4.5。
摩爾線程核心優(yōu)勢(shì):
軟硬協(xié)同的全棧算力底座
MTT S5000是專為大模型訓(xùn)練、推理及高性能計(jì)算而設(shè)計(jì)的全功能GPU智算卡,基于第四代MUSA架構(gòu)“平湖”打造。其單卡AI算力最高可達(dá)1000 TFLOPS,配備80GB顯存,顯存帶寬達(dá)到1.6TB/s,卡間互聯(lián)帶寬為784GB/s,完整支持從FP8到FP64的全精度計(jì)算。
依托MUSA全棧平臺(tái),MTT S5000原生適配PyTorch、Megatron-LM、vLLM及SGLang等主流框架,助力用戶實(shí)現(xiàn)“零成本”代碼遷移。無論是構(gòu)建萬卡級(jí)大規(guī)模訓(xùn)練集群,還是部署高并發(fā)、低延遲的在線推理服務(wù),MTT S5000均展現(xiàn)出對(duì)標(biāo)國際主流旗艦產(chǎn)品的卓越性能與穩(wěn)定性,旨在為行業(yè)筑牢堅(jiān)實(shí)、易用的國產(chǎn)算力底座。
▼ MTT S5000官網(wǎng)地址:
https://www.mthreads.com/product/S5000
此次實(shí)現(xiàn)對(duì)GLM-5模型的快速支持,正是摩爾線程基于MTT S5000構(gòu)建的軟硬協(xié)同技術(shù)能力的集中體現(xiàn):
▼ 底層架構(gòu)與生態(tài)兼容:天生適配,極速遷移
針對(duì)GLM-5的長(zhǎng)序列推理場(chǎng)景,MTT S5000憑借充沛的算力儲(chǔ)備與高計(jì)算密度,結(jié)合對(duì)稀疏Attention的架構(gòu)級(jí)支持,在大規(guī)模上下文處理中依然保持高吞吐與低延遲。同時(shí),MUSA軟件棧的敏捷性是實(shí)現(xiàn)Day-0適配的關(guān)鍵。基于MUSA架構(gòu)的TileLang原生算子單元測(cè)試覆蓋率已超過80%,使得絕大多數(shù)通用算子可直接復(fù)用,顯著降低移植成本,并能快速跟進(jìn)前沿模型結(jié)構(gòu)與新特性演進(jìn)。
▼ 原生FP8加速:SGLang 框架深度優(yōu)化
基于高性能的SGLang-MUSA推理引擎及MTT S5000的硬件原生FP8計(jì)算單元,摩爾線程實(shí)現(xiàn)了推理效率的躍升。與傳統(tǒng)BF16相比,原生FP8在保持GLM-5卓越的代碼生成與邏輯推理能力(精度無損)的同時(shí),大幅降低了顯存占用,并顯著提升了推理吞吐量,為大規(guī)模部署提供了更高性價(jià)比的方案。
▼ 獨(dú)創(chuàng)ACE引擎:通信計(jì)算并行,釋放極致吞吐
針對(duì)大模型分布式推理中的通信痛點(diǎn),MTT S5000利用獨(dú)創(chuàng)的異步通信引擎(ACE),將復(fù)雜的通信任務(wù)從計(jì)算核心中卸載,實(shí)現(xiàn)了物理級(jí)的“通信計(jì)算重疊”。這一機(jī)制有效釋放15%的通信被占算力,配合首創(chuàng)的細(xì)粒度重計(jì)算技術(shù)(將開銷降至原有的1/4),全方位提升計(jì)算效率與系統(tǒng)吞吐量。
▼ 超長(zhǎng)上下文支持:專為AI Coding打造
通過高效算子融合及框架極致優(yōu)化,MTT S5000在確保代碼生成質(zhì)量的同時(shí)顯著降低了響應(yīng)延遲。無論是處理復(fù)雜的代碼庫分析,還是運(yùn)行長(zhǎng)周期的智能體(Agent)任務(wù),均能保持首字延遲(TTFT)低、生成速度快的流暢體驗(yàn)。MTT S5000與GLM-5的軟硬雙強(qiáng)組合,在函數(shù)補(bǔ)全、漏洞檢測(cè)等核心場(chǎng)景的表現(xiàn)超越同級(jí),充分釋放模型的規(guī)劃能力和Debug能力,是執(zhí)行長(zhǎng)程開發(fā)任務(wù)的理想選擇。
從GLM-4.6、GLM-4.7到GLM-5,摩爾線程已將“發(fā)布即適配”化為常態(tài),這種對(duì)主流軟件棧的無縫兼容與敏捷響應(yīng),充分證明了國產(chǎn)全功能GPU及MUSA軟件棧的成熟度與穩(wěn)定性,確保開發(fā)者能第一時(shí)間觸達(dá)最新模型能力,從而攜手共建蓬勃發(fā)展的國產(chǎn)AI生態(tài)。



評(píng)論