瑞芯微、英伟达双双切换存储方案至LPDDR5/5X,一场由AI驱动的内存技术变革正在悄然上演。
瑞芯微方面,自2021年起便启动对LPDDR5/5X颗粒的适配工作,历经多年技术沉淀,目前已完成RK3588与RK3576系列SoC对长鑫存储DDR4/LPDDR4/LPDDR4X/LPDDR5/LPDDR5X的全面兼容验证。尤其值得注意的是,其新推的245球(12.5x8.3mm)封装方案,面积较传统315球封装缩减近50%,已成为行业新增标准,在智能手机等空间敏感型设备中展现出明显选型优势。这一动作不仅强化了供应链自主性,也为国内AIoT终端提供了更稳定、高效且可控的核心部件支持。
而更令人瞩目的则是英伟达的转向——这家全球AI算力巨头正计划将AI服务器内存从传统的DDR5转向原本用于移动设备的LPDDR5X。据Counterpoint Research报告指出,此举旨在显著降低服务器能耗与成本。美光实测数据显示,在运行Meta Llama3 70B模型时,采用LPDDR5X的系统相较传统DDR5配置,推理量提升4倍,延迟下降近80%,功耗更是降低73%。这种性能与能效的双重飞跃,使得LPDDR5X成为支撑高密度AI推理任务的理想选择。
SOCAMM2模块作为该技术路径的关键载体,通过整合LPDRAM与压缩连接内存设计,实现了高带宽、低功耗和小体积的统一。这也意味着,未来AI服务器可能不再依赖昂贵的HBM,而是以更具性价比的方式逼近其性能水平。
看到这里,我不得不感叹:这不仅是存储形态的迁移,更是计算架构思维的转变。我一直认为,随着AI从云端向端侧加速渗透,功耗与空间效率的重要性正逐步超越单纯的峰值带宽追求。英伟达此举,本质上是对“可持续计算”的一次战略押注。而瑞芯微联合长鑫存储推进国产化适配,则让我看到了本土生态在关键技术节点上的协同能力正在成型。
更关键的是,这场切换背后折的是产能与需求的深层博弈。正如闪存市场预测,2025年Q4 LPDDR4X/5X价格涨幅或将达10%-15%,原因正是原厂产能持续向服务器倾斜,导致消费级供应吃紧。AI PC与AI服务器对LPDDR5X的需求已形成“挤占效应”,推动DRAM投资全面向高利润领域集中。
说到底,这不是一次简单的技术升级,而是一场由AI定义的新一轮硬件重构。谁掌握了低功耗高性能存储的落地能力,谁就有可能在未来五年抓住端-边-云协同的核心入口。我对这一趋势保持高度关注,也更加看好那些能在先进制程迁移与生态适配中建立先发优势的企业。