AI芯片市场暗流涌动。
巨头之一谷歌正加快自研AI芯片TPU的商业化步伐,有报道称谷歌正与Meta等科技大厂谈外采合作。在外界看来,如果合作落地,TPU将进入谷歌体系之外的超大规模数据中心,或对英伟达GPU 主导的算力市场带来冲击。
相关消息一出,英伟达股价随即震荡。周二美股早盘,英伟达股价一度下滑7%,最终收跌约2.6%。而自10月29日以来,英伟达市值从5.03万亿美元跌至11月25日收盘的4.32万亿美元,不到一个月时间市值缩水已超过7000亿美元(约合人民币5万亿元)。
11月26日凌晨,英伟达在社交平台上正面回应谷歌的竞争:“我们对谷歌的成功感到高兴——他们在人工智能领域取得了重大进展,而我们仍将继续向谷歌供货。英伟达领先行业整整一代,是唯一能够运行所有AI模型,并可在所有计算场景中部署的平台。”
作为全球GPU市场的主导者,英伟达用“领先一代”与“全场景优势”回应这场自研芯片带来的挑战。而即便谷歌TPU得以进入Meta等巨头的数据中心,也并不意味着GPU会在短期内被替代。事实上,谷歌也表示,自家定制的TPU和英伟达GPU的需求都在加速增长。
更多业内观点认为,随着AI训练与推理的负载增长和高度多元化,未来更可能呈现ASIC、GPU异构部署,而不是哪一种架构一统天下。
谷歌加速TPU商用
谷歌对TPU的研发已久,始于2013年,并且和谷歌云服务紧密结合。
过去,TPU主要用于谷歌内部AI工作负载和Google Cloud服务。然而,日前多家媒体报道称,谷歌正在推动其自研芯片走向外部客户,Meta正考虑从2027年开始在其数据中心部署谷歌的TPU,并可能最早于明年通过Google Cloud租用TPU容量,潜在合同金额或达数十亿美元。
目前,英伟达占据AI芯片市场超过90%的份额,而以谷歌为代表的厂商,正在夺取更多份额。谷歌此举并非突然,一方面是其长期“软硬一体化”战略的自然延伸。另一方面,在大模型训练成本呈几何级上升的背景下,自研芯片成为巨头降低能耗、控制成本的关键路径。
今年4月,谷歌推出了最新一代TPU —— TPU v7 (Ironwood),最近又迭代出了Gemini 3,谷歌正在通过模型和硬件耦合的方式,强化自身在大模型时代的技术闭环。据悉,Gemini 3已大量使用 TPU完成训练和推理,为谷歌推动TPU的商业化提供了更强的验证场景。
作为AI老将,谷歌从云端、终端、芯片、大模型、平台工具等等,进行了全覆盖。而GPU王者英伟达,也在构建AI基础设施的全套体系,包括CUDA、NVLink、高速互联等壁垒。
面对外界对霸主地位动摇的讨论,英伟达迅速发声,采取主动回应。一方面,它强调与谷歌的合作稳定且持续;另一方面,其关键论点非常鲜明,GPU的通用性与兼容性仍然是当前AI创新不可替代的基础设施。
相比之下,TPU、Gaudi、Trainium等ASIC芯片往往根据特定框架或任务场景,在特定负载上取得极高效率。谷歌依然采购英伟达 GPU,但未来厂商在AI训练与推理时,会采用算力供应多元策略。
“围攻”英伟达
谷歌的加速只是英伟达面临挑战的一个典型代表。更广泛的趋势是,全球科技巨头普遍加速自研 AI 芯片,争夺算力主权。从训练到推理,从通用模型到专业应用,各类企业都开始将掌握自有算力视为下一阶段竞争力的关键。
谷歌之外,AWS、微软也在不断迭代自研芯片,其中AWS持续更迭Graviton、Trainium、Inferentia系列,势头凶猛,但是微软在发布自研AI芯片Maia系列后,新的芯片计划有所推迟。
中国市场上,后起之秀如华为昇腾、寒武纪、百度昆仑芯等,正在快速推进。可以看到,整个行业正在从GPU单线制,向多架构、多供应商的异构化体系演进。
这种趋势在Anthropic的最新合作中体现得更为明显。Anthropic 一方面与英伟达签订了围绕 Blackwell、Rubin系统构建的长期基础设施协议;另一方面也同时采购谷歌最新的Ironwood TPU。这种“多路线并行”的采购方式强化了一个信号,即大型AI公司不再愿意将未来完全押在某一种芯片架构上,而是倾向于保持算力供应链的多元化。
在英伟达第二财季财报会上,谈及ASIC的竞争和GPU的竞争,英伟达创始人兼CEO黄仁勋回应道,市场上有很多做AI ASIC的企业,但极少有产品能真正投入生产,因为加速计算与通用计算截然不同,无法仅通过编写软件并将其编译到处理器中来实现,加速计算的技术栈已经异常复杂。
但市场并未因此完全安心,谷歌TPU商业化的消息出现后,英伟达股价出现明显波动。这反映出市场正在重新评估GPU在未来AI基建中的份额与利润率,并且触动了投资者对“英伟达峰值时刻是否已过”的敏感神经。
无论哪一种路线最终占优,可以确定的是,AI基础设施行业正在从单一硬件竞争转向系统级竞争。随着软件框架、模型体系、能效的变化,AI 芯片格局还在继续演变。