高通技術(shù)公司發(fā)布AI200和AI250,重新定義AI時代機架級數(shù)據(jù)中心推理性能
要點:
● Qualcomm? AI200和AI250解決方案以業(yè)界先進的總體擁有成本(TCO),為高速數(shù)據(jù)中心生成式AI推理提供機架級(rack-scale)性能與卓越內(nèi)存容量。Qualcomm AI250引入創(chuàng)新內(nèi)存架構(gòu),為AI工作負載帶來有效內(nèi)存帶寬與能效的跨越性提升。
● 兩款解決方案均配備豐富的軟件棧,并與主流AI框架無縫兼容,助力企業(yè)與開發(fā)者跨數(shù)據(jù)中心部署安全、可擴展的生成式AI。
● 這些產(chǎn)品是高通技術(shù)公司多代數(shù)據(jù)中心AI推理技術(shù)路線圖的一部分,并以年度為迭代周期。

高通技術(shù)公司近日宣布,推出面向數(shù)據(jù)中心的下一代AI推理優(yōu)化解決方案:基于Qualcomm AI200與AI250芯片的加速卡及機架系統(tǒng)。依托公司在NPU技術(shù)領域的優(yōu)勢,這些解決方案提供機架級性能與卓越的內(nèi)存容量,能夠以出色的每美元每瓦特的高性能賦能高速生成式AI推理,為推動各行業(yè)可擴展、高效率、高靈活性的生成式AI部署樹立重要里程碑。
Qualcomm AI200帶來專為機架級AI推理打造的解決方案,旨在為大語言模型(LLM)與多模態(tài)模型(LMM)推理及其他AI工作負載提供低總體擁有成本與優(yōu)化性能。每張加速卡支持768GB LPDDR內(nèi)存,實現(xiàn)更高內(nèi)存容量與更低成本,為AI推理提供卓越的擴展性與靈活性。

Qualcomm AI250解決方案將首發(fā)基于近存計算(Near-Memory Computing)的創(chuàng)新內(nèi)存架構(gòu),實現(xiàn)超過10倍的有效內(nèi)存帶寬提升并顯著降低功耗,為AI推理工作負載帶來能效與性能的跨越性提升。該架構(gòu)支持解耦式AI推理,實現(xiàn)硬件資源的高效利用,同時滿足客戶性能與成本需求。
兩款機架解決方案均支持直接液冷散熱,以提升散熱效率,支持PCIe縱向擴展與以太網(wǎng)橫向擴展,并具備機密計算,保障AI工作負載的安全性,整機架功耗為160千瓦。
高通技術(shù)公司高級副總裁兼技術(shù)規(guī)劃、邊緣解決方案和數(shù)據(jù)中心業(yè)務總經(jīng)理馬德嘉(Durga Malladi)表示:“憑借Qualcomm AI200與AI250,我們正在重新定義機架級AI推理的可能性。這些創(chuàng)新的AI基礎設施解決方案能夠讓客戶以業(yè)界先進的總體擁有成本部署生成式AI,同時滿足現(xiàn)代數(shù)據(jù)中心對靈活性與安全性的要求。我們擁有豐富的軟件棧與開放生態(tài)支持,能夠支持開發(fā)者和企業(yè)更加輕松地基于我們的優(yōu)化AI推理解決方案,集成、管理并擴展完成訓練的AI模型。基于與主流AI框架的無縫兼容性和一鍵模型部署功能,Qualcomm AI200與AI250旨在支持無縫應用與快速創(chuàng)新。”
我們的超大規(guī)模級AI軟件棧,覆蓋從應用層到系統(tǒng)軟件層的全鏈路,專為AI推理優(yōu)化。該軟件棧支持主流機器學習(ML)框架、推理引擎、生成式AI框架,以及解耦服務等LLM/LMM推理優(yōu)化技術(shù)。開發(fā)者可通過高通技術(shù)公司的高效Transformer庫(Efficient Transformers Library)與 Qualcomm? AI Inference Suite,實現(xiàn)模型無縫接入及Hugging Face模型的一鍵部署。我們的軟件提供開箱即用的AI應用與智能體、完善工具、庫、API接口及AI運營化服務。
Qualcomm AI200與AI250預計將分別于2026年和2027年實現(xiàn)商用。未來,高通技術(shù)公司將致力于按照年度迭代節(jié)奏,持續(xù)推進公司數(shù)據(jù)中心產(chǎn)品技術(shù)路線圖,聚焦業(yè)界先進的AI推理性能、能效與總體擁有成本優(yōu)勢。








評論