AI PC需要什么樣的存儲?
隨著采用Panther Lake處理器的AI PC開賣,端側AI不僅獲得了更強的AI算力、續航和游戲體驗,終端形態也因為芯片算力提升、能耗降低而重新調整內部形態,1.2kg以下的輕薄型筆記本電腦開始變得司空見慣,基于Windows系統平臺的游戲掌機也伴隨著iGPU性能大幅提升獲得優秀體驗。
事實上不局限于Panther Lake,在CES 2026期間,基于新一代驍龍X2 Elite Extreme和Ryzen AI 400系列的輕薄型筆記本、掌機、平板等端側AI設備蓄勢待發,以往要依靠臺式機級別的獨立GPU才能處理簡單的生成式AI應用,現在僅依靠65W左右的便攜式供電就能實現豐富的AI應用,實際上是業界共同努力的結果。

核心硬件缺一不可
AI PC硬件基本上圍繞CPU、NPU、GPU、內存、存儲五個核心組件,每個硬件都承擔了不同AI場景的工作。例如被經常提到的NPU主要是考慮在節能的前提下,實現離電狀態下的AI加速,GPU則是生成式AI、AI智能體等重負載的主要承擔硬件,CPU則需要快速響應,給AI應用的啟動和資源提供調度。
另一方面,內存和存儲也已經在AI PC中承擔起了非常重要的角色。由于AI模型加載、多任務切換、大語言模型本地運行均需要大內存的支持,16GB內存其實不大能滿足多模型切換和調用的需要,32GB DDR5被認為是支撐AI應用流暢體驗的基本盤。但受限于成本,內存不可能像SSD存儲那般提供更大的容量,64GB以上的內存容量對于消費級AI PC而言相對少見,128GB以上基本屬于工作站的范疇了。
相對應的,512GB起步的SSD則能夠很好的滿足AI的擴容,特別是隨著BiCS 8在SSD中普及,高性能、高容量密度的閃存允許SSD向1TB以上發展,甚至可以制造出2TB、4TB甚至更高容量的產品。

在CES 2026期間發布的鎧俠BG7系列就是使用了BiCS 8以及CBA技術的消費級解決方案,它針對OEM、ODM等移動端側AI設備設計,其隨機讀/寫速度高達 1,000,000 IOPS,順序讀取速度高達7,000 MB/s,性能較前代KIOXIA BG6系列提升約10%至16%,兼顧能效和存儲,除了常規的M.2 2280外形,還提供M.2 2230和M.2 2242可選,是理想的端側AI擴容方案之一。


云端協同
AI大模型的不斷升級,指望端側AI在本地實現AI的全部應用不太現實。通常而言,將語音識別、圖像分類、實時翻譯等低延遲要求的任務,由端側NPU/CPU處理,響應時間控制在100ms以內提升使用體驗。更復雜的任務則交給云端GPU集群處理,包括大語言模型推理、復雜圖像生成、多模態分析等算力密集型任務。
無論是邊緣節點、還是云端承擔的AI任務,除了強大的GPU之外,也需要更多的緩存提供支持。因此大容量數據中心級SSD也變得尤為關鍵,可以在存儲性能,數據吞吐能力和可靠性三個維度的關鍵支撐,直接影響AI訓練和推理的效率和成本。比如面對PB級的海量訓練數據集,百萬級IOPS可以將數據加載時間壓縮到以秒為單位,避免GPU因等待數據而閑置,同時也能支持多模型并行,滿足A/B測試、灰度發布等應用場景。
鎧俠CD9P 系列固態硬盤能夠滿足云端AI計算的嚴苛要求,符合PCIe 5.0、NVMe 2.0、NVMe-MI 1.2c標準,順序讀取性能可達14.8GB/s,隨機讀寫性能可達2,600KIOPS(QD512)和750KIOPS (QD32)。
不僅如此,鎧俠還發布了高達245.76TB的LC9系列SSD,可幫助企業管理PB級數據,實現基礎設施現代化,以支持生成式AI和機器學習應用。為AI云端和邊緣部署提供了更多可能性。

端側AI能力正以超乎想象的速度發展,100+ TOPS開始變得司空見慣,更多AI任務可以實現本地化。同時,邊緣計算的普及、模型壓縮的突破,為端側和邊緣快速執行AI應用提供了可能。隨著ONNX、TensorFlow Serving等框架完善,云端、邊緣、端側合力提供流暢的AI體驗變得近在咫尺。端側與云端AI協同不再是簡單的本地、云端二選一,而是根據任務特性、網絡條件、隱私要求等因素動態調度的智能系統。無論系統如何部署,優秀的存儲解決方案都將成為AI應用的基礎保障,這也正是鎧俠所擅長的工作。












評論