大家好 我是风阶 近期,#英伟达推出推理专用芯片 Rubin CPX,凭借更优的成本效益,为 AI 推理场景提供新选择,也为产业链相关环节带来增量机遇。我们从技术特点、架构影响到产业链机会,为大家梳理核心逻辑。#AI拉动存储芯片需求,相关概念股狂飙#
一、先懂 AI 推理:两个阶段需求大不同
AI 推理并非 “一刀切”,其过程分为Prefill(预填充) 和Decode(解码) 两个关键阶段,对硬件的需求存在本质差异:
Prefill 阶段:核心需求是 “算力”。需通过高量快速处理大量输入数据(比如分析一段长文本、一张高清图像),最终生成首个输出结果(即 token)。若用搭载昂贵、高带宽 HBM 内存的芯片来跑这个阶段,会造成资源浪费。
Decode 阶段:核心需求是 “内存带宽”。需依托高速内存传输和 NVLink 等互联方案,保障后续逐单元(token-by-token)的稳定输出,确保推理过程不卡顿。
二、Rubin CPX 核心亮点:算力够用,成本大降
作为英伟达专为大规模上下文 AI 模型设计的推理 GPU,Rubin CPX 的核心优势在于 **“精准匹配需求 + 控制成本”**:
算力适配推理场景:单芯片提供 20 PFLOPS 的 FP4 密集计算能力,足以支撑 Prefill 阶段的算力需求,无需过度依赖高规格芯片。
内存成本砍半:放弃传统昂贵的 HBM 内存,改用更经济的 GDDR7 内存,搭配 128GB 容量。相比此前的 VR200,每 GB 内存成本降低超 50%,大幅优化 AI 推理的硬件投入成本。
三、新架构落地:VR200 服务器机架升级,产业链需求扩容
Rubin CPX 的推出,直接推动英伟达 VR200 服务器机架迭代为三种新形态,架构复杂度提升的同时,也催生产业链新需求:
VR200 NVL144:18 个计算单元(computer tray)共搭载 72 个 R200 GPU,每个单元含 4 个 R200。
VR200 NVL144 CPX:同样 18 个计算单元,但配置更灵活 —— 包含 144 个 Rubin CPX GPU+72 个 R200 GPU,每个单元含 4 个 R200+8 个 Rubin CPX。
Vera Rubin CPX 双机架:由 “1 个 VR200 NVL144 机架 + 1 个 VR CPX 机架” 组成,其中 VR CPX 机架的 18 个计算单元,每个含 8 个 Rubin CPX GPU。
新架构下,机柜内芯片互联(不同 GPU 间的数据传输)和机柜外网络互联的复杂度显著提升,对承载芯片的 PCB(印制电路板)、实现信号传输的铜缆连接器等硬件的需求进一步增加,相关环节迎来明确增量。
四、产业链关注方向:PCB、铜缆连接器、组装
结合架构升级带来的需求变化,可重点关注以下三大环节及受益标的(内容仅为产业研究参考,不构成投资建议):
PCB 环节:作为芯片的 “载体”,新机架中 Rubin CPX 芯片需新增 PCB 承接,同时复杂互联对 PCB 的性能要求更高。受益标的包括$沪电股份(SZ002463)$、$胜宏科技(SZ300476)$、$深南电路(SZ002916)$、生益电子、景旺电子、鹏鼎控股、广合科技、方正科技、世运电路、奥士康、生益科技等。
铜缆连接器环节:机柜内外互联需求增加,铜缆连接器作为信号传输的关键部件,用量有望提升。受益标的包括华丰科技、沃尔核材、鼎通科技等。
组装环节:服务器机架形态升级,对整体组装工艺的协同性要求提高,头部组装企业有望承接更多订单。受益标的包括工业富联等。
风险提示
Rubin CPX 芯片市场放量节奏不及预期,导致产业链需求兑现延迟;
产业链配套企业(如 PCB、连接器厂商)的产能、技术迭代速度跟不上架构升级需求,影响交付进度。