半导体行业专题研究:AI存储革命已至 “以存代算”开启存储新纪元

类别:行业 机构:天风证券股份有限公司 研究员:唐海清/李泓依 日期:2025-09-28

  “以存代算”发展背景:AI 推理成价值核心,HBM 瓶颈凸显产业痛点,“以存代算”应运而生。当前,AI 推理已成为衡量大模型商业化价值的关键标尺,但在实际应用中仍面临“推不动、推得慢、推得贵”的严峻挑战。为突破算力瓶颈与“存储墙”制约,“以存代算”作为一种颠覆性技术范式应运而生。该技术通过将AI 推理过程中的矢量数据(如KV Cache)从昂贵的DRAM 和HBM 显存迁移至大容量、高性价比的SSD 介质,实现存储层从内存向SSD 的战略扩展,而非简单替代。其核心价值在于显著降低首Token时延、提升推理吞吐量,并大幅优化端到端的推理成本,为AI 大规模落地提供可行路径。

      “以存代算”核心技术:“以存代算”CachedAttention 技术是一种通过将AI 推理中历史对话的 KV Cache 缓存到 HBM+DRAM+SSD 等外部存储介质。在该系统中,HBM 作为GPU 本地高速存储,负责存储当前活跃会话的 KV Cache,支撑LLM推理计算;DRAM 作为中间缓存层,承接 HBM 的异步写入与 SSD 的预加载,平衡速度与容量;SSD 则作为长期存储层,提供大容量持久化存储,承载非活跃历史数据。“以存代算”CachedAttention将首Token 时延(TTFT)显著缩短了87%,并提升了Prefill 阶段7.8 倍的吞吐量,从而将端到端推理成本降低了70%。

      “以存代算”硬件突破:在 “以存代算”技术范式下,SSD 不再是单纯的数据存储载体,而是深度参与 AI 推理的核心组件,其需承接从 HBM、DRAM 卸载的 KV Cache,因此被赋予大容量、高吞吐、低延迟的新要求,以缓解对高成本 HBM 的依赖。同时,SSD 主控芯片作为 “控制大脑”,需通过先进算法优化数据寻址调度,支撑 AI 推理中数据高效流转。在此背景下,AI SSD 技术将沿三大方向发展:颗粒上,向 QLC 颗粒演进,凭借技术升级实现高性能与大容量兼顾,满足 AI 大模型数据存储调用需求;接口协议上,以 PCIe 5.0/6.0 接口搭配 NVMe 协议为基础,未来融入 CXL 技术,进一步提升带宽与降低延迟;功能上,向智能化升级,如铠侠计划推出软件让 SSD 自主处理 AI 检索任务,Solidigm 探索液冷方案优化散热,实现存储与AI 推理的深度协同。

      “以存代算”企业布局:“以存代算”的核心实践已获产业龙头积极布局。

      华为UCM 作为 “以存代算” 产品化关键载体,构建智能分级缓存,数据可根据记忆热度在HBM、DRAM、SSD(固态硬盘)等存储介质中实现按需流动; 同时融合多种稀疏注意力算法, 实现存算深度协同。除了以HBM+DRAM+SSD 构建的多级缓存体系外,还存以KVCache 缓存技术为核心的多元实践。浪潮存储AS3000G7 优化存储架构与缓存管理机制,智能调度KVCache 数据,具备高扩展性,能快速处理热数据,为AI 推理等应用提供高效稳定的存储算力。焱融YRCloudFile KVCache 依托自研分布式文件系统,实现KVCache 数据在分布式环境下的高效存取与智能负载均衡,兼容性强,提升数据与计算协同效率。国际层面,铠侠、美光、Solidigm等巨头正积极推动AI SSD 的技术迭代与产品创新。我们认为,QLC+PCIe/NVMe+CXL 有望构筑下一代AI SSD 基座,推动SSD 从单纯存储介质,升级为AI 推理“长期记忆”载体。

      投资建议:AI 存储革命已至,“以存代算”催生核心机遇,显著节省算力消耗加速AI 推理,带动SSD 需求增速高于传统曲线。建议关注:

      存储模组厂商:江波龙(天风计算机联合覆盖)、德明利、佰维存储、朗科科技、联芸科技、万润科技等;存储芯片:兆易创新、普冉股份、北京君正、东芯股份、恒烁股份、澜起科技、聚辰股份等;存储分销与封测:香农芯创、深科技、太极实业、中电港等

      风险提示:地缘政治带来的不可预测风险,需求复苏不及预期,技术迭代不及预期,产业政策变化风险