构建AI算力是用GPU芯片还是ASIC芯片,现实商业世界有了新的叙事。
近日,公开报道显示,全球领先的大模型公司OpenAI将与博通(Broadcom,AVGO.O)合作,从明年开始量产其自研的AI芯片,以减少对英伟达GPU的依赖。在最新的财报电话会上,博通首席执行官陈福阳提到,已从一家新客户那里获得了100亿美元的定制AI芯片订单。虽然陈福阳没有透露这个“新客户”是谁,但表示该订单将为博通带来了“直接且规模可观”的增长动力。而这很难不让外界想到OpenAI,受此消息影响,博通股价当日上涨4.5%。
不仅是OpenAI,公开报道还显示,Meta将于2025年第四季度推出首款ASIC(专用集成电路)芯片以支持其MTIA项目,该芯片亦由博通设计。
《中国经营报》记者了解到,咨询机构TrendForce集邦咨询研究报告显示,AI服务需求带动北美四大云服务提供商亚马逊、Meta、谷歌和微软都在加速自研ASIC芯片。未来,AI算力供给将形成GPU和ASIC双轨制。
工业和信息化部2025年发布《专用集成电路产业发展行动计划》,明确提出“到2028年实现ASIC芯片在AI训练、智能价值等领域的国产化率突破60%”,并设立专项基金支持关键技术攻关。另有行业调研数据显示,在2025年中国AI算力需求中,ASIC芯片占比已超过30%,成为数据中心、边缘计算等场景的主流选择。
OpenAI或自研芯片
根据博通披露的2025财年第三季度财报(截至8月3日),该公司本财季的营收为159.52亿美元,同比增长22.03%,环比增长6.32%;作为英伟达的有力挑战者,博通保持两位数的收入增长势头。
幕后功臣非ASIC芯片莫属。陈福阳表示,博通第三财季营收创同期历史新高,得益于定制AI加速器、网络和VMware业务的持续强劲增长。
分业务看,博通第三财季包括ASIC在内的半导体解决方案业务表现亮眼,收入91.66亿美元,同比增长26%,占总营收的57%。需要指出的是,不同于英伟达、AMD等公司设计的GPU,博通把定制AI芯片(ASIC)称为“XPU”。
“上个季度,一家潜在客户向博通提交了生产订单,因此我们将其列为XPU的合格客户,事实上,他们已经与我们签下了超过100亿美元的订单。鉴于此,我们现在预计2026财年的AI收入前景将大幅改善。”陈福阳进一步表示。
业界普遍猜测,该名潜在客户很大可能就是OpenAI。早有消息称,OpenAI去年开始与博通进行初步合作,但此前一直不清楚两家合作芯片设计公司的量产时间表。
8月,OpenAI 首席执行官 Sam Altman表示,鉴于其最新模型 GPT-5 的需求不断增长,该公司正在优先考虑计算能力问题,并计划“在未来五个月内”将其计算集群的规模扩大一倍。
这反映了大公司抢夺芯片资源的激烈战况。于是,OpenAI采取与谷歌、亚马逊和Meta等巨头类似的做法,自主研发专用芯片处理AI任务,以应对训练和运行大模型的巨大算力需求。
国内外ASIC赛道进度
行业研究机构Omdia人工智能首席分析师苏廉节表示,博通作为ASIC全球领先公司,其附加值在于知识产权模块,例如定制张量核心、互连结构以及针对人工智能大规模并行处理和数据传输需求而设计的电源管理方案,专业优势源于其在网络和存储领域大规模复杂系统级芯片的积淀。
东吴证券分析师陈海进表示,ASIC业务模式下需要服务商具备多项能力:一是IP设计能力,定制芯片主要包含四部分IP,计算、存储、网络I/O及封装,服务提供商不涉及计算部分架构设计,只提供相应设计流程及性能优化。博通、Marvell针对这四部分均有较全面的布局,均能提供存储、网络I/O、封装的完整IP解决方案
二是SoC设计能力,博通、Marvell等具备完整SoC设计能力,博通与谷歌、Meta合作,Marvell联手亚马逊,二者占ASIC市场份额超60%,其中博通市场占有率55%—60%、Marvell为13%—15%。
国内也有一批专注于人工智能芯片的ASIC公司,比如寒武纪、华为昇腾、昆仑芯等。据沐曦集成电路(上海)股份有限公司招股说明书,该公司认为华为海思、寒武纪、昆仑芯、燧原科技等为代表的专用型计算架构(ASIC/DSA)芯片设计企业,都是其国内市场的竞争对手。
同处ASIC赛道,国内外公司进度有何不同?中研普华《2025—2030年中国ASIC芯片行业全景洞察与未来趋势预测报告》显示,中国企业在ASIC芯片设计、制造工艺、封装测试等环节取得关键突破;设计方面,寒武纪思元系列、地平线征程系列在AI算力、能效比等指标上达到国际先进水平;制造层面,中芯国际14nm/12nm工艺成熟量产,为ASIC芯片提供定制制程支持;封装层面,长电科技、通富微电的Chiplet技术实现多芯片异构集成,突破单一芯片的算力瓶颈。另外,该报告还提到,有企业已推出相关AI加速卡,集成自研ASIC芯片和高性能存储芯片,实现了算力密度与数据带宽的双重提升。
苏廉节认为,中国的自研芯片都是面向外部企业客户需求,而这些企业客户都要面向内部AI负载的,“所以性能反而不是最重要的,最重要的是能否解决现实需求”。
“目前来看,国内做得最好的是华为;国外则是亚马逊。谷歌的TPU以稳定性闻名,两者不相上下。”苏廉节表示。
TrendForce集邦咨询分析师龚明德预计,2025年国产化AI芯片将加速扩张,这里面包含大型互联网企业自研ASIC芯片以及国内AI芯片供应商的自主研发,国产AI芯片采用的比例将大于六成,该趋势将同时体现在AI训练和AI推理应用上。
“未来3—5年中国AI芯片市场有望实现翻倍以上的增长。”龚明德指出,未来仍需观察整体AI供应链上下游(比如上游投片、CoWOS封装、HBM 等)自主化程度而定。
开源推动国内ASIC应用进展
记者注意到,脱胎于百度的昆仑芯近期传出好消息,在中国移动2025—2026年人工智能通用计算设备(推理型)集中采购项目中,基于昆仑芯的AI服务器产品,在标包1、标包2、标包3中分别拿下70%、70%、100%的份额,中标订单规模达到十亿元级别。
长期以来,昆仑芯主要供给百度使用,外界对其感知不太高。此次拿下运营商大单显示昆仑芯在商业化路径上取得进展。市场也将其置于“国产AI芯片第一梯队”。
中银国际研报认为:“基于市场调研反馈,昆仑芯在诸多方面已达到甚至超越行业不少头部企业,尤其是在CUDA兼容方面。”
国内ASIC另一大巨头华为在前不久的昇腾计算产业发展峰会上官宣CANN全面开源开放。华为轮值董事长徐直军主题演讲中强调,华为AI战略的核心是算力,并坚持昇腾硬件变现。
据了解,CANN全称为“Compute Architecture for Neural Networks”,是华为主导的神经网络异构计算架构,相比英伟达CUDA生态,华为CANN生态还有很多工作要做。
今年以来,一股由DeepSeek、阿里巴巴、月之暗面、MiniMax等国内大模型公司掀起的开源之风正在业界吹起,英伟达创始人黄仁勋多次盛赞这些中国开源大模型对于AI社区的贡献和意义。
华为此次全面开源开放CANN,也将推动国产算力的进步。正如徐直军强调的,华为昇腾硬件使能CANN全面开源开放,Mind系列应用使能套件及工具链全面开源,支持用户自主的深度挖潜和自定义开发,加速广大开发者的创新步伐,让昇腾更好用、更易用。
最新消息显示,在“2025 Inclusion外滩大会”开幕式上,阿里云创始人、之江实验室主任王坚在分享中指出:“开源模型与闭源模型的选择,已经变成了AI竞争的关键变量。”
在王坚看来,现在正处于开源开放的时代。而在这一过程中,模型权重的开放,实际上就是数据资源和计算资源的开放,如今如果开源只开放软件,其能够起到的作用已经很有限了。
随着能同时支持思考模式与非思考模式的混合推理架构DeepSeek -V3.1的推出,DeepSeek还在“UE8M0 FP8是针对即将发布的下一代国产芯片设计”的置顶留言里预告了开源模型对于国产芯片的支持。