存储涨价潮,正从DRAM蔓延向NAND。
继1月三星电子将NAND闪存合约价格上调100%以上后,2月以来,多家市场研究机构纷纷上修了对NAND闪存价格的预测。
2月2日,TrendForce集邦咨询上修了第一季DRAM、NAND Flash各产品价格季成长幅度,NAND Flash合约价从季增33-38%上调至55-60%,并且不排除仍有进一步上修空间。
Counterpoint也在2月3日表示,根据该机构的2026年1月存储价格追踪报告,NAND闪存价格预计将在本季度上涨超过40%。
“闪存涨价主要还是AI需求量太大了。”IO资本创始合伙人赵占祥对21世纪经济报道记者表示,AI推理以及最新一代AI大模型倾向于在推理过程中做一些训练,双双带动了闪存的需求。
推理催化闪存需求
随着生成式AI从训练阶段全面迈入大规模推理应用,NAND闪存需求一路走高。
AI对NAND的需求,主要来自RAG(检索增强生成):为了解决大语言模型普遍存在的“幻觉”痛点,能够通过检索外部知识库来增强生成准确性的企业级RAG应用正加速渗透落地。
然而,这要求企业将TB乃至PB级的私有知识库进行向量化并持久化存储。在推理阶段,系统必须在极高的并发下,对这些海量向量库进行毫秒级的实时检索与精准召回。这种高频、随机且对延迟极度敏感的读操作,暴露了传统存储的性能短板,迫使企业大规模采用高性能企业级SSD。这一趋势直接引爆了市场对高品质、高带宽NAND原厂颗粒的强劲需求。
与此同时,Long Context(长上下文)也加剧了这一趋势。与训练阶段不同,推理过程需要高频访问保存上下文状态的数据(即KV Cache)。当大模型的上下文窗口突破100万甚至1000万token时,这些海量的中间状态数据已无法被GPU内部的HBM或DRAM单独容纳,必须溢出到外部存储。
为了将KV Cache从昂贵的HBM中解放出来,构建多级分层缓存体系已成为业界共识。目前的普遍方案是将KV Cache卸载到DRAM及高速SSD(固态硬盘)中。如DeepSeek的Engram架构利用DRAM和SSD来分流HBM的压力,大幅降低了长上下文推理的成本;英伟达在即将推出的Rubin平台上,也计划通过BlueField-4智能网卡构建推理上下文存储方案。
这带来了NAND闪存增量需求:当前,全球NAND年度总需求约800EB。而铠侠在业绩说明会上披露,经与英伟达沟通测算,英伟达KV Cache相关应用在2027年或将额外带来约75-100EB的NAND需求,且该需求在2028年有望进一步翻倍。
招商证券指出,AI推理驱动存储架构向“HBM+DRAM+NAND”三级金字塔架构演进,RAG与长上下文确立了大容量NAND在降本增效与解决“模型幻觉”中的核心地位。
“现在AI的需求主要来自两方面。一方面是AI推理,会有大量上下文的KV Cache,这些数据需要存储到SSD里面。因此,闪存的需求量在推理方面是增加的。”赵占祥告诉记者,另一方面,最新一代AI大模型倾向于在推理过程中也要做一些训练,就像人脑一样,边学习边推理,而学习对存储的需求就更大了,本质上就是“以存力来换算力”。
在“以大容量廉价存储换取算力效率”的技术路径下,数据中心对NAND需求增速超过DRAM。据TechInsights预测,2023-2030年,数据中心NAND位元需求CAGR达32.6%,而数据中心DRAM位元需求CAGR为28.3%。
但从供给端看,全球NAND Flash存储晶圆产能集中在三星电子、SK海力士、美光、西部数据/闪迪、铠侠、长江存储、长鑫存储等少数巨头手中。而头部原厂正将资本开支优先向HBM及先进DRAM产能倾斜,NAND领域的投资增速相对落后。
供需错位之下,摩根大通预测,2026年NAND行业平均销售价格将同比上涨40%,2027年也仅微跌2%,依然维持高位。
HBF或成新增量
尽管传统NAND SSD提供了巨大的存储容量,但其带宽瓶颈和毫秒级延迟使其无法跟上GPU的算力节奏,导致AI芯片在等待数据时陷入“空转”。
面对“内存墙”问题,闪迪推出了新型的AI存储架构高带宽闪存(High Bandwidth Flash,HBF)。该架构将3D NAND闪存与类似HBM的高带宽接口技术深度融合,提供比传统HBM高出8到16倍的容量。尽管其延迟高于DRAM,但通过大幅提升接口带宽,其读取性能已有望逼近HBM水平。
紧随其后,据媒体报道,SK海力士正与闪迪合作,致力于HBF标准的制定。据现有规划,闪迪计划在2026年下半年交付其HBF内存的首批样品,并预计首批搭载HBF的AI推理设备样品将于2027年初上市。
巨头纷纷押注背后,HBF的核心优势在于其结合了高带宽与大容量,且成本更具竞争力,这些特性使其特别适合读取密集型的AI推理等大容量应用场景。
有NAND设计企业负责人告诉记者,目前在AI计算系统中,计算存储主要用DRAM、HBM等。但随着产品和硬件架构的不断推进,DRAM的高功耗、高成本问题不断凸显。如果用HBF代替DRAM,整个系统的性能和成本都会得到提升。
具体而言,目前计算机架构主要依赖DRAM配合CPU/NPU进行计算,但传统DRAM面临成本瓶颈:若DRAM容量仅16GB,系统仅能支撑8GB小模型,存储器成本约40美元;若要支撑更聪明的32GB大模型,需大幅提升DRAM规格,导致成本飙升至100美元。
为此,有企业提出引入HBF来替代大部分DRAM的容量需求,并利用其高带宽特性承担AI计算所需的读取功能。该架构在将DRAM容量减半、保持存储成本仅40美元的同时,成功支撑32GB大模型,实现了更高的系统性能和更低的能耗。
国金证券研究指出,随着3D NAND层数突破200层、HBM4量产体系逐步建立、三星HBF等新架构研发推进,存储产业正朝着“DRAM缓存+HBF加速+NAND海量存储”的多层架构演进,技术突破将逐步缓解供需矛盾,推动行业进入新的增长轨道。