• 最近访问:
发表于 2025-07-06 14:34:10 股吧网页版
事关大模型,盘古团队声明
来源:上海证券报

  华为宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型后,一项有关盘古Pro MoE模型与通义千问Qwen-2.5 14B模型在参数结构上高度相似的分析引发业界热议。

  7月5日,诺亚方舟实验室发布声明称,盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。

  一项发布于GitHub的研究认为,盘古团队推出的盘古Pro MoE开源模型与阿里巴巴发布的通义千问Qwen-2.5 14B模型在参数结构上呈现出很高的相似性,两个模型在注意力参数分布上的平均相关性高达0.927,远超其他模型对比的正常范围。

  对此,诺亚方舟实验室回应称,盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。

  “我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。”诺亚方舟实验室表示。

  在此次讨论中,有业内分析人士表示,盘古Pro MoE开源模型大概率没有直接使用通义千问Qwen-2.5 14B模型的预训练权重作为初始化参数。两者在偏置的绝对数值分布上存在本质差异,难以通过常规的微调或持续预训练从一个模型状态演变到另一个模型状态。

  “这并不排除盘古Pro MoE开源模型与通义千问Qwen-2.5 14B模型在架构设计上具有高度一致性。这种架构和设计理念上的相似性,可能导致了发布于GitHub的研究提到的‘归一化标准差’模式的接近,不过结构上的一致性在大模型上来说并不是什么问题,因为好的结构是大家共同的选择,大模型整体架构都在趋同。”上述分析人士指出。

  诺亚方舟实验室提到,盘古Pro MoE开源模型在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。

  “我们始终坚持开放创新,尊重第三方知识产权,同时提倡包容、公平、开放、团结和可持续的开源理念。”诺亚方舟实验室表示。

  诺亚方舟实验室表示,感谢全球开发者与合作伙伴对盘古大模型的关注和支持,盘古团队高度重视开源社区的建设性意见。希望通过盘古大模型开源,与志同道合的伙伴一起,探索并不断优化模型能力,加速技术突破与产业落地。

  作者:时娜

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
郑重声明:用户在社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500