• 最近访问:
发表于 2025-02-18 10:26:40 股吧网页版
山西证券:UltraMem架构推理成本降至83% AI应用落地加速
来源:财中社

  2月18日,山西证券发布计算机行业报告。字节豆包大模型团队发布全新的稀疏模型架构UltraMem,有效解决了当前主流的MoE架构在推理时产生的高额访存问题,推理速度较MoE架构提升2-6倍,同时推理成本最高可降低83%。

  UltraMem在PKM架构的基础上对模型结构、value检索方式、稀疏参数进行优化,在保证模型性能的同时大幅提升推理效率。UltraMem架构参考PKM(Product Key Memory)的设计,即Transformer层中嵌入大内存层以及推理时以行列路由的方式激活参数,访存效果较MoE架构明显改善。同时,UltraMem对PKM架构进行针对性优化以提升模型性能:优化模型结构:将PKM的单个内存层拆分成多个内存层均匀嵌入Transformer层中,使模型能够并行执行访存和Transformer层计算操作;优化value检索方式:在推理时以TDQKR的乘法方法替代简单的行列加权方法选出得分最高的多个value,使模型能够精准检索到与输入相关的value;隐式扩展稀疏参数:引入数倍于physical memory的virtual memory,在不提高模型部署复杂度的情况下提升模型性能。根据实验结果,训练规模达2000万value的UltraMem模型,在同等计算资源下可同时实现业界领先的推理速度和模型性能。

  推理成本持续下降加速应用生态繁荣。根据Semianalysis数据,随着算法持续进步,截至2024年底,以GPT-3质量的输出为标准,模型推理价格下降了1200倍。进入2025年,在推理技术优化下,DeepSeek模型的使用成本不到o1模型的1/25,而字节最新发布的UltraMem架构将使主流稀疏模型的推理成本大幅下降。认为,模型调用价格是用户选择模型运行应用的重要考量因素,各大模型厂商及科技大厂将持续竞相推动推理成本下降,从而带动上层AI应用的加速落地,并有望促进应用从云端场景向端侧场景拓展。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500