香农芯创:中国企业在HBM领域快速突破
HBM(高带宽内存)正成为AI算力的"心脏",没有它,再强的AI芯片也是废铁。中国企业已从材料、设备到芯片撕开垄断缺口,2025年国产HBM将支撑60%的AI服务器需求,让中国AI产业不再"卡脖子"。
华为昇腾950靠自研HBM技术让算力暴涨3倍……这个国庆,科技圈被一个陌生词炸懵了:HBM。当大多数人还在围着光模块讨论“AI产业链谁最赚钱”时,内行人早就看透了:光模块只是AI的“传声筒”,HBM(高带宽内存)才是决定算力跑不跑得起的“心脏”。更关键的是,这个曾被三星、SK海力士、美光垄断99%市场的“卡脖子”领域,中国企业已经从材料、设备到芯片,撕开了一道口子。
被低估的“算力心脏”:没有HBM,AI芯片就是废铁
很多人第一次听HBM,以为是“高级内存条”。错了。它和普通内存的差距,相当于高铁和自行车。
AI大模型的致命痛点叫“内存墙”:GPU像顶级厨师,要处理万亿参数的大模型,得不断从内存调取“食材”。传统DDR内存好比离厨房十里地的菜市场,服务员跑腿速度赶不上厨师切菜速度,算力再强也得干等着。而HBM是把12层菜市场叠成3D高楼,用硅通孔(TSV)技术让数据坐“电梯”直达厨房,再用先进封装贴紧GPU,数据传输速度比DDR快10倍,能效提升30%。SK海力士算过账:HBM能效每改善10%,单机架数据中心就能节能2%,对年耗电量堪比中等城市的AI机房来说,这是白花花的真金白银。
行业早有铁律:没有HBM,再强的AI芯片也是废铁。华为昇腾950PR能支撑大模型训练,靠的是自研HBM HiBL 1.0技术;升级到HBM HiZQ 2.0后,算力直接翻倍。要是换成普通DDR内存,别说训练万亿参数模型,连5000亿参数都撑不住,算力砍半都是保守估计。 现在,HBM成了巨头疯抢的“硬通货”。黄仁勋喊出“AI推理需求将增长十亿倍”,而推理的本质是“先思考再作答”,思考越久越依赖HBM的数据。机构预测,2025年HBM市场规模将达350亿美元,2030年飙到980亿美元,复合增长率33%——这是什么概念?比过去十年的智能手机芯片增速还高两倍。
年前,HBM还是韩国人的天下:三星、SK海力士、美光三家垄断全球产能,中国企业链边都摸不到。2024年底禁运政策一出,反而成了“逼出来的突破”。现在,国内产业链已经从多个关键环节杀了进来,从“送水送铲子”的配角,变成能挑大梁的主力。
最稳的“中间商”:代理资质成“摇钱树”
HBM缺货时,“代理权”比黄金还值钱。国内有家企业拿到SK海力士HBM的国内唯一代理资质,下游直接对接阿里、腾讯、字节,库存跟着涨价,利润率比卖矿泉水还高。这种“牌照优势”在缺货周期里,就是躺着赚钱的“稳赚选手”。