Phison 在消費(fèi)級 PC 上演示了 10 倍快的 AI 推斷,軟硬件組合使得 AI 模型大三倍——Nvidia、AMD、MSI 和宏碁系統(tǒng)均通過 aiDAPTIV+ 演示

在CES 2026上,Phison展示了其配備aiDAPTIV+軟硬件組合的消費(fèi)級個人電腦,其AI推理速度是未使用其專用技術(shù)套件時的十倍。當(dāng)Phison于2024年年中推出其aiDAPTIV+技術(shù)時,它實際上將NAND內(nèi)存與DRAM一起轉(zhuǎn)化為托管內(nèi)存層,使大型AI模型能夠在缺乏足夠DDR5和/或HBM內(nèi)存的系統(tǒng)上進(jìn)行訓(xùn)練或運(yùn)行,但當(dāng)時這僅是一個面向企業(yè)的概念驗證。到2026年初,該技術(shù)的定位發(fā)生了變化,Phison現(xiàn)在將其視為客戶端PC上AI推理模型的推動力,這大大增加了應(yīng)用場景。所以,
通常,當(dāng)令牌在推理過程中不再適合 GPU 的鍵值(KV)緩存時,舊的 KV 條目會被逐出,因此當(dāng)模型再次需要這些令牌時(在長上下文或代理循環(huán)情況下),GPU 必須從頭重新計算它們,這使得在內(nèi)存容量有限的系統(tǒng)中 AI 推理效率低下。然而,在配備Phison的aiDAPTIV+堆棧的系統(tǒng)中,不再適合GPU的KV緩存的令牌會被寫入閃存并保留以備將來重用,這在許多情況下可以減少內(nèi)存需求,并大幅延長第一個令牌的時間,即生成響應(yīng)第一個詞的時間。
Phison aiDAPTIV+ 平臺的重新聚焦,旨在讓配備入門級甚至集成 GPU 的普通個人電腦能夠處理遠(yuǎn)超其內(nèi)置 DRAM 通常允許的 AI 模型。將大模型推理和有限的培訓(xùn)帶入桌面和筆記本,對于目前無法承擔(dān)AI大額投資的開發(fā)者和小型企業(yè)來說可能非常有價值,因此Phison列出了一批在CES 2026上采用該技術(shù)的aiDAPTIV+測試合作伙伴名單,如宏碁、華碩、Corsair、Emdoor、微星,甚至英偉達(dá)。例如,宏碁曾在僅有32GB內(nèi)存的宏碁筆記本上運(yùn)行g(shù)pt-oss-120b型號,這為多種應(yīng)用打開了大門。

根據(jù)Phison內(nèi)部測試,aiDAPTIV+可將推理響應(yīng)時間提升多達(dá)10倍,同時降低功耗并提升筆記本電腦的首次令牌時間。顯然,模型越大、上下文越長,收益越大,因此該技術(shù)對專家混合模型和代理型AI工作負(fù)載尤為相關(guān)。Phison聲稱,一個1200億參數(shù)的MoE模型可以用32GB的DRAM處理,而傳統(tǒng)方法大約需要96GB的DRAM,因為非激活參數(shù)被存儲在閃存中,而非駐留在主存中。
鑒于Phison的aiDAPTIV+協(xié)議棧包含基于Phison先進(jìn)控制器、特殊固件和軟件的AI感知SSD(或多個SSD),該技術(shù)的實現(xiàn)應(yīng)該相當(dāng)簡單。這對PC制造商、增值經(jīng)銷商和有意使用該功能的小型企業(yè)來說非常重要,因此合理預(yù)期其中不少企業(yè)會在面向開發(fā)者和高級用戶的高端機(jī)型中實際使用這項技術(shù)。對Phison來說,這意味著使用他們的控制器,以及通過向合作伙伴銷售aiDAPTIV+堆棧帶來的額外收入。










評論