这事儿有点意思。美国一家叫Normal Computing的公司,刚搞出全球首款热力学计算芯片CN101,成功流片了。一听这名字,热力学计算,好像跟咱们熟悉的CPU、GPU完全不是一个路子。但你别以为这是什么实验室里的纸上谈兵,人家已经实实在在把芯片做出来了,而且目标直指AI和高性能计算的能耗痛点。
我看了下资料,传统芯片跑AI,尤其是大模型推理和训练,耗电太狠了。GPU集群一开,电费就压得人喘不过气。Normal的思路很野——它不跟物理规律对着干,反而利用噪声、随机性和亚稳态来做计算。说白了,它不是靠强行推逻辑门,而是让系统自己“演化”到一个平衡状态,这个状态本身就是计算结果。IEEE Spectrum都说了,这玩意儿特别适合搞随机采样、矩阵求解这类任务,比如现在火得不行的扩散模型。
你想想,AI生成图像、视频,本质上就是概率游戏,非得用确定性硬件去硬算,效率当然低。而CN101直接用物理过程模拟随机过程,能效提升号称高达1000倍。这数字听着悬,但如果是真,那可真是颠覆性的。要知道,现在整个AI行业都被能耗卡着脖子,英伟达的Hopper、Blackwell再强,数据中心的电力和散热也快撑不住了。
他们CEO讲了一句很关键的话:AI能力快触到能源天花板了,就算未来五年算力需求涨一万倍,电从哪来?所以必须换赛道。他们这支从Google Brain、Palantir出来的团队,走的是一条“物理原生”的路——让硬件的物理行为直接对应算法需求。这思路,有内味儿了。
更值得注意的是他们的路线图:2026年推CN201,打中等规模生成式AI;2027到2028年上CN301,直接冲大规模视频生成。如果真能按计划走通,那不只是替代GPU的问题,而是重新定义AI计算的底层范式。而且他们强调,这是极小团队干出来的事,说明技术突破有时候真不靠人海战术。
当然,现在下定论还早。CN101刚流片,接下来要过表征和基准测试这关。真实性能如何,能不能规模化,产业链是否支持,都是未知数。但有一点可以肯定:当大家都在卷制程、卷架构时,有人已经开始从物理底层重新设计计算本身。这步子迈得够大,成不成另说,但方向是对的。能耗瓶颈摆在这儿,不换思路,光靠堆芯片,路只会越走越窄。