据闪德资讯获悉,AI大语言模型的推理应用全面扩张,全球存储器市场正进入前所未有的爆发阶段。
报告显示,以OpenAI的GPT-5模型为例,推理过程对HBM、DRAM和NAND产生的需求,将足以推动一波存储器超级周期。
AI应用正从训练阶段向推理阶段转变,改变了存储器的使用结构。
AI服务器通常采用三层存储器架构,HBM直接集成在GPU封装内部,主要负责实时高速的数据交换。
DRAM承担模型加载、临时存储及缓存扩展的任务。
NAND Flash主要用于模型权重加载、键值(KV)缓存溢出处理及检索式生成查询。
报告强调,AI推理过程中,对存储器的高带宽和大容量形成了双重压力。
按照全球用户每秒共生成2400万个tokens计算,仅GPT-5的需求,就相当于全球DRAM供应量25%、NAND供应量22%。
若2026年tokens生成量进一步翻倍,需求占比将分别提升至43%和39%,意味着AI推理产生的流量,足以消化全球存储器的新增产能。
受推理大模型推动,存储器需求年增长率超过100%,市场会出现明显的供需缺口。
闪德资讯,一个聚焦关注存储产业供应链和趋势变化的垂直媒体。