最近AI圈又传来重磅消息,华为即将发布一项突破性技术,剑指当前行业普遍存在的算力资源利用率低下的难题。根据多方媒体报道,这项新技术将于2025年11月21日在上海正式发布,核心目标是通过软件创新大幅提升GPU、NPU等硬件的算力利用效率,从目前行业平均的30%-40%提升至惊人的70%。更值得关注的是,该技术不仅适配自家昇腾芯片,还能统一管理英伟达及其他第三方算力,实现跨平台调度。这背后,其实是一场关于“用软件补硬件短板”的系统级较量。
对标英伟达收购的Run:ai,华为打出软件牌
华为这项即将发布的技术,其思路与2024年底被英伟达以7亿美元收购的以色列公司Run:ai高度相似。Run:ai专注于GPU资源调度,通过动态分配、池化和分片等技术,在Kubernetes平台上构建了一套高效的AI计算资源管理系统。像Wayve这样的自动驾驶公司,就曾借助其工具将GPU集群效率从不足25%提升到80%以上。而黄仁勋推动这笔收购并开源相关技术,正是为了强化英伟达“芯片+软件+生态”的闭环优势。华为此次出手,显然也是看准了这一关键环节——在硬件受限的背景下,软件优化成了破局的关键抓手。
提升算力利用率,直击国产AI发展痛点
当前中国AI产业面临一个现实困境:先进制程受限导致单卡算力与国际顶尖水平存在差距,同时高端GPU供应紧张。在这种情况下,单纯追求硬件堆砌已难以为继。华为的做法很聪明——不硬拼芯片性能,而是通过软件手段最大化释放现有算力潜能。将算力利用率从平均不到一半提升到七成,相当于凭空多出近一倍的可用算力。这对于云服务商、大模型训练机构来说,意味着显著降低成本、加快迭代速度。此前华为推出的UCM推理数据管理技术和昇腾384超节点,也都是“系统补单点”战略的体现,这次的新技术无疑是这一路线的又一次深化。
统一调度多源算力,构建自主可控生态
尤为值得注意的是,这项技术并非只服务于昇腾芯片,而是旨在实现对英伟达、昇腾及其他第三方算力的统一资源管理和调度,屏蔽底层硬件差异。这意味着企业可以在混合算力环境中灵活调配资源,避免被单一供应商绑定。在全球地缘政治复杂、供应链不确定性增加的今天,这种开放兼容又自主可控的技术路径显得尤为重要。它不仅能帮助国内客户减少对英伟达生态的依赖,也为未来构建更加多元、弹性的AI基础设施提供了可能。说到底,华为正在下一盘大棋:用软件定义算力,用生态赢得未来。