华为将于2025 年 11 月 21 日在长沙世界计算大会上发布一项 AI 领域突破性技术,该技术核心为 **"软件定义算力"(Software-Defined Computing Power),旨在将 AI 算力资源利用率从行业平均的 30%-40% 提升至 70%**,实现 "以软件补硬件" 的创新突破。请问公司的AI算力资源的利用率是多少?公司在提高资源利用率方面有何创新方案和技术储备?
云天励飞-U:
尊敬的投资者,您好!公司Deep Edge10系列芯片基于标准化的大模型计算单元打造,通过D2D Chiplet技术、C2C Mesh技术和C2C Mesh Torus技术,将标准计算单元以类似于“搭积木”的方式封装成不同算力的芯片,并针对大模型的Transformer架构进行优化,可实现7B、14B、130B等不同参数量大模型的高效推理。公司于2024年推出的IPU-X6000加速卡,其内置高效大模型推理Deep Edge200芯片,具有256T大算力、486GB/s超高带宽、128GB大显存、C2C mesh互联,由多张加速卡构成的一体机,在多卡互联时可实现存储共享、最大化发挥带宽优势,从而提升大模型推理效率,可应用于语言大模型、视觉大模型、多模态大模型等各类大模型推理加速领域,已完成Deep Seek R1系列模型、Flash MLA和国产鸿蒙操作系统的适配,可支持包括Transformer模型、BEV模型、CV大模型、LLM大模型等各类不同架构的主流模型。公司已完成第四代NPU的研发,目前正在推进下一代高性能NPU的研发,将更适合AI推理应用。 关于公司产品的具体情况,请您持续关注公司披露的定期报告等公开信息,谢谢!
尊敬的投资者,您好!公司Deep Edge10系列芯片基于标准化的大模型计算单元打造,通过D2D Chiplet技术、C2C Mesh技术和C2C Mesh Torus技术,将标准计算单元以类似于“搭积木”的方式封装成不同算力的芯片,并针对大模型的Transformer架构进行优化,可实现7B、14B、130B等不同参数量大模型的高效推理。公司于2024年推出的IPU-X6000加速卡,其内置高效大模型推理Deep Edge200芯片,具有256T大算力、486GB/s超高带宽、128GB大显存、C2C mesh互联,由多张加速卡构成的一体机,在多卡互联时可实现存储共享、最大化发挥带宽优势,从而提升大模型推理效率,可应用于语言大模型、视觉大模型、多模态大模型等各类大模型推理加速领域,已完成Deep Seek R1系列模型、Flash MLA和国产鸿蒙操作系统的适配,可支持包括Transformer模型、BEV模型、CV大模型、LLM大模型等各类不同架构的主流模型。公司已完成第四代NPU的研发,目前正在推进下一代高性能NPU的研发,将更适合AI推理应用。 关于公司产品的具体情况,请您持续关注公司披露的定期报告等公开信息,谢谢!
(来自 上证e互动)
答复时间 2025-11-26 13:43:00
郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
评论该主题
帖子不见了!怎么办?作者:您目前是匿名发表 登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》