• 最近访问:
发表于 2025-03-10 22:59:30 股吧网页版
字节开源MoE关键优化技术 大模型训练成本可再省40%
来源:上海证券报·中国证券网 作者:罗茂林

  上证报中国证券网讯(记者罗茂林)3月10日,记者从字节跳动获悉,字节豆包大模型团队宣布开源针对MoE架构的关键优化技术COMET,可将大模型训练效率提升1.7倍,成本节省40%。

  据悉,该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万GPU小时训练算力。针对MoE通信瓶颈,COMET通过在计算-通信重叠层面的多项创新,大幅降低了MoE流水线上的通信延迟。

  同时,COMET支持业界绝大部分主流大模型,并可以像插件一样接入已有的MoE训练框架,无需进行侵入式改动,也可以与DeepSeek开源的DualPipe方案联用以更大压缩训练成本。该工作以高分入选了全球机器学习系统顶级会议MLSys 2025。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500