字节开源MoE关键优化技术 大模型训练成本可再省40%
来源:上海证券报·中国证券网
上证报中国证券网讯(记者罗茂林)3月10日,记者从字节跳动获悉,字节豆包大模型团队宣布开源针对MoE架构的关键优化技术COMET,可将大模型训练效率提升1.7倍,成本节省40%。
据悉,该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万GPU小时训练算力。针对MoE通信瓶颈,COMET通过在计算-通信重叠层面的多项创新,大幅降低了MoE流水线上的通信延迟。
同时,COMET支持业界绝大部分主流大模型,并可以像插件一样接入已有的MoE训练框架,无需进行侵入式改动,也可以与DeepSeek开源的DualPipe方案联用以更大压缩训练成本。该工作以高分入选了全球机器学习系统顶级会议MLSys 2025。
郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
评论该主题
帖子不见了!怎么办?作者:您目前是匿名发表 登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》