为什么会有AI泡沫的说法?实际上,人工智能的商业模式目前仍存在两个大的问题。第一个大的问题是,前段时间有大空头做空AI主线及英伟达等相关公司,其核心观点是AI领域缺乏大规模应用的落地与转化——因为算力好比修路,路修完后需要投入使用、发挥作用,否则修路便失去了意义。所以就一直吐槽说,算力“路”虽已修,但“行人”寥寥,即缺乏大规模应用落地,导致商业模式尚未完全跑通。但在我们看来,虽然目前缺乏大规模应用,但小规模应用并非不存在,这一点我们一会再展开说一说。
第二个问题是,有说法称部分大厂通过延长折旧年限、把折旧摊低的方式伪造报表,以此虚增利润。这是一些空头对AI泡沫的另一项指责。客观而言,这些问题或许存在,但从我们的视角来看,可能并不是特别大的问题。
为什么这么说?首先,我们提升一个高度,从国家战略层面来说,当前中国与美国均在大力推动人工智能发展;再往上一层去看,这本质上是各国在人工智能这个未来的科技赛道上去占领身位的问题。因此,不会因短期商业模式未跑通就停止投入,这并非由单纯的两三年市场化结果决定,而是具备更长远的战略价值。所以从更高维度来看,中美两国大概率不会放弃对AI的投入,无需过度担忧短期泡沫破裂的问题,持续投入仍是大概率事件。
其次,正如刚才提到的,虽然大规模应用尚未出现,但AI赋能已在多个行业、多个场景中发生。比如说云厂商的收入增长很迅猛,原因是众多企业开始使用小范围的AI服务。还有部分搜索软件搭载AI服务后,搜索效率大幅提升。此外,AI在创作领域的应用,也让用户更愿意在大型社交媒体或网站上停留。因此,AI的投入与产出未必如大家预期般已出现大规模应用,虽未达到路修了马上就很多人来的程度,但已有零星“行人”开始走上来了,可能还没有到大泡沫要崩塌的点上。
谷歌TPU近期也很火热。谷歌的技术实力确实还是很厉害,2023年ChatGPT之所以能横空出世,核心在于其采用的Transformer模型表现出色,而这个模型正是谷歌整出来的。尽管谷歌在Transformer模型的最终应用上不及OpenAI,但谷歌的技术实力仍十分雄厚——今年谷歌真的是全面发力,从基础硬件到云计算、大模型再到应用,每个环节都在发力,且已推出多项顶尖技术成果,达到全球一流甚至超一流水平。例如,Gemini 3 Pro的性能几乎碾压了同类模型,这便是其在软件与大模型领域的优势。
硬件方面,谷歌TPU取得了比较大的进展。前段时间我们关注的通信ETF(515880)突然上涨,便与谷歌TPU的推出有关。市场认为英伟达的市场份额要掉下去了,当前人工智能GPU市场中,英伟达份额约占90%以上,AMD约占4%多,其余则由其他厂商占据,若谷歌能在该市场中打开突破口,英伟达的份额可能就要萎缩。
但反过来讲,对我国光模块产业而言,订单来自英伟达还是谷歌,对国内光模块厂商影响不大,因此这并非关键问题。那天通信ETF(515880)大涨的传闻便是其成分股之一接到了谷歌的大量订单,不过这一消息尚未证实。但我想说明的是,即便未来英伟达财报表现不及预期,也不意味着国内与北美算力相关的板块就会失去支撑——无论上游是英伟达还是谷歌,只要其仍在生产GPU或TPU,对国内光模块企业而言,这就都是上游需求的拉动,都一样。
谷歌TPU的出现确实会给英伟达带来挑战,但我们认为,企业间的竞争或许会加快计算芯片的放量速度,这种可能性是有的。因为竞争会促使企业不断提升效率,目前许多AI训练已采用万卡集群甚至更高规格的算力配置,在这一算力需求旺盛的阶段,效率的提升对下游应用厂商是非常友好的,也有助于下游厂商进一步扩大算力需求。因此,这对整个AI产业而言并非坏事;同时,上游光模块企业“卖铲人”的逻辑也依然成立,无需过度担忧。所以在我们看来,AI泡沫这个事不是什么太大的问题,TPU的推出我们觉得也是蛮好的一件事情。
2026年技术趋势明确,光模块向1.6T升级,北美算力端通信ETF(515880)确定性较高,国产算力端可关注高弹性的科创芯片ETF(589100)与确定性较高的半导体设备ETF(159516)。应用端当前估值偏低,可根据自身风格择机布局,并且大规模应用爆发后将进一步拉动上游算力需求。