【导读】华为首次开源盘古大模型,包含70亿和720亿参数模型
6月30日,华为宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型,以及基于昇腾的模型推理技术。
华为表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。
华为开源盘古7B与72B混合专家模型
据华为官网信息,此次是华为首次将盘古大模型的核心能力开源,本次开源主要包括:盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台;基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台;盘古7B相关模型权重与推理代码将于近期上线开源平台。
华为表示,“我们诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。”

(来源:开源开发者平台GitGo)
据了解,盘古是华为推出的一系列超大规模人工智能预训练模型,涵盖自然语言处理、计算机视觉、科学计算等多个领域。其名称寓意“开天辟地”,象征着华为在人工智能基础研究和行业应用上的突破性探索。盘古模型自发布以来,已在多个行业中实现落地,包括金融、制造、能源、交通等,助力企业实现智能化升级。
据开源开发者平台GitGo上发布的信息,盘古Pro MoE是昇腾原生的分组混合专家模型。基于MoGE架构,华为团队构建了总参数量720亿、激活参数量160亿的盘古Pro MoE模型。
盘古Pro MoE在昇腾800I A2上实现了单卡1148 tokens/s 的推理吞吐性能,并可进一步通过投机加速等技术提升至1528 tokens/s,显著优于同等规模的320亿和720亿参数的稠密模型;在昇腾300I Duo推理服务器上,也实现了极具性价比的模型推理方案。
研究表明,昇腾NPU能够支持盘古Pro MoE的大规模并行训练。多项公开基准测试结果表明,盘古Pro MoE在千亿内总参数模型中处于领先地位。
另据介绍,大规模MoE模型的预训练和后训练过程,存在着诸如系统通信瓶颈、负载不均衡、调度策略复杂等问题,造成集群训练效率低下。针对这些挑战,华为团队构建了支持超大规模集群和超大规模MoE模型的昇腾全流程高效训练系统。
前不久,华为推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时还发布了盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾在超大规模MoE模型训练性能上的跨越。
盘古7B则是灵活切换快慢思考的高效模型,该模型在单一、统一的架构内实现了快速响应和高质量推理的灵活切换。
研究表明,仅有70亿参数的盘古Embedded在多个权威的复杂推理基准测试中(如AIME,GPQA等),其表现优于Qwen3-8B和GLM4-9B等规模相近的业界领先模型。这项工作展示了一条充满前景的技术路线:在保证模型推理能力达到业界顶尖水平的同时,实现其实用化、高效率的部署。
国内大模型进入开源时代
大模型的发展,开源是重要的方向。通过开放协作,可以加速技术创新、降低研发成本、促进知识共享,并为构建数字经济基础设施提供核心支撑。
2025开年,DeepSeek-R1的成功在全球掀起了一股开源风潮,随后国产大模型开源的消息接连不断,涵盖了自然语言处理、计算机视觉、多模态等多个领域,不仅科技企业在开源大模型,运营商等多类企业加入到开源大模型的队伍中,呈现出千帆竞发的态势。
而华为首次开源盘古大模型,将为研究人员和开发者提供宝贵的资源,加速人工智能技术的创新和应用。在6月20日举行的华为开发者大会2025上,华为云重磅发布盘古大模型5.5,该模型在复杂推理能力、工具调用、数学高阶推理和AI编程能力等榜单的评测中,得分均处于业界第一梯队。
当前,国产大模型的开源正在加速。2025年6月,MiniMax、阿里巴巴、月之暗面等国内头部大模型厂商陆续升级多款开源大模型。
有研究报告指出,国内头部大模型厂商在有限的算力支持下,以算法升级促进模型性能持续提升,接力年初DeepSeek-R1,推动国内大模型产业发展。同时,大模型价格飞速下探。例如MiniMax-M1、豆包大模型1.6定价比DeepSeek-R1降低约60%~80%。更高的性价比无疑将加快应用普及速度。