近日,北京大学人工智能研究院孙仲研究员团队联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,首次实现了在精度上可与数字计算媲美的模拟计算系统。该芯片在求解大规模MIMO信号检测等关键科学问题时,计算量与能效较当前顶级数字处理器(GPU)提升百倍至千倍。相关论文于10月13日刊发于《自然·电子学》期刊。
如何让模拟计算兼具高精度与可扩展性,从而在现代计算任务中发挥其先天优势,一直是困扰全球科学界的世纪难题。
孙仲团队选择了一条融合创新的道路,通过新型信息器件、原创电路和经典算法的协同设计,构建了一个基于阻变存储器阵列的高精度、可拓展的全模拟矩阵方程求解器,首次将模拟计算的精度提升至24位定点精度。
在计算精度方面,团队在实验上成功实现16×16矩阵的24比特定点数精度求逆,矩阵方程求解经过10次迭代后,相对误差可低至10⁻⁷量级。在计算性能方面,在求解32×32矩阵求逆问题时,其算力已超越高端GPU的单核性能;当问题规模扩大至128×128时,计算量更达到顶级数字处理器的1000倍以上,传统GPU干一天的活,这款芯片一分钟就能搞定。同时,该方案在相同精度下能效比传统数字处理器提升超100倍,为高能效计算中心提供了关键技术支撑。
它的意义:
这项技术的本质,是成功解决了模拟计算走向实用化的两大“阿喀琉斯之踵”——精度和可扩展性。
这意味着,计算世界可能要从“数字的独木桥”开始走向“数字与模拟的阳关道”。
对GPU的“升维打击”:
当前AI浪潮建立在GPU强大的数字并行计算能力之上。而北大芯片在特定任务(如矩阵运算)上实现了百倍能效、千倍量的提升,这不再是“改进”,而是“颠覆”。
这预示着,未来计算架构可能不再是GPU一手遮天,而是走向异构计算:用GPU处理逻辑复杂、高精度的任务,而用这种模拟计算芯片作为“协处理器”,专攻AI、通信、科学计算中最耗能的线性代数运算。
破解“功耗墙”困局:
数字芯片的制程微缩已接近物理极限,性能提升的同时功耗急剧飙升,形成了“功耗墙”。北大芯片的百倍能效提升,为持续增长的算力需求提供了一个革命性的低功耗解决方案,对降低大型数据中心的运营成本(电费)和实现“双碳”目标意义重大。
打开边缘计算新空间:
如此高的能效,使得运行复杂AI模型(如大语言模型)有可能在手机、自动驾驶汽车、物联网设备等边缘端直接实现,而无需完全依赖云端,这将极大推动边缘AI的发展。
利好的上市公司:
1、新型存储一体的上市公司
罗普特 688619
该公司是A股中明确的存算一体AI芯片公司,其芯片能效据称较传统方案有百倍提升,与北大技术路线同属“模拟域并行计算”,被视为最直接的对标标的
紫光国微
被认为是国内忆阻器(与阻变存储器RRAM技术相关)领域的龙头之一,在相关工艺和量产方面有积累,有望受益于RRAM生态的扩张
兆易创新
作为国内存储芯片龙头,其NOR Flash技术与RRAM同属非易失性存储,且公司一直在关注新型存储技术研发,有技术延伸的可能性。
2、模拟芯片类公司
技术突破验证了模拟电路的价值。更广泛的背景是,在当前行业周期向上、国产替代加速的趋势下,具有强大研发能力和丰富产品线的龙头公司更具优势
如圣邦股份、思瑞浦等
3、先进封装公司
未来的高精度模拟计算芯片对先进工艺制造和** Chiplet(芯粒)** 等先进封装技术有需求,相关企业可能受益。
如通富微电: 国内先进封装(尤其是Chiplet)领域的绝对龙头,为AMD等大厂提供高端封装服务,最有可能受益于未来复杂芯片的封装需求。