• 最近访问:
发表于 2025-11-25 14:01:50 股吧网页版
华为联合三大高校发布并开源AI容器技术Flex:ai
来源:新京报 作者:韦博雅

  新京报贝壳财经讯(记者韦博雅)11月21日,在上海举行的AI容器应用落地与发展论坛上,华为正式发布AI容器技术 Flex:ai,并联合上海交通大学、西安交通大学、厦门大学宣布该项产学合作成果全面开源。

  当前,AI产业高速发展催生海量算力需求,但算力供需错配问题突出:小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏GPU/NPU的通用服务器更是处于算力“休眠”状态,供需错配造成严重的资源浪费。

  本次发布并开源的Flex:ai XPU池化与调度软件,是基于Kubernetes容器编排平台构建,通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的精准匹配,可大幅提升算力利用率。

  针对小模型训推的资源浪费问题,华为与上海交通大学联合研发 XPU 池化框架,将单张 GPU/NPU 卡精准切分为多份虚拟算力单元,切分粒度精准至10%,可实现算力单元的按需切分,使此类场景下的整体算力平均利用率提升30%。

  面对通用服务器无法服务 AI 工作负载的痛点,华为与厦门大学合作推出跨节点拉远虚拟化技术,聚合集群内空闲 XPU 算力形成 “共享算力池”,一方面为高算力需求的AI工作负载提供充足资源支撑;另一方面,可让不具备智能计算能力的通用服务器通过高速网络,可将AI工作负载转发到远端“资源池”中的GPU/NPU算力卡中执行,从而促进通用算力与智能算力资源融合。

  面对算力集群中多品牌、多规格异构算力资源难以统一调度的痛点,华为与西安交通大学共同打造Hi Scheduler智能调度器。该调度器可自动感知集群负载与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,实现AI工作负载分时复用资源。在负载频繁波动的场景下,可以保障AI工作负载的平稳运行,让算力都“物尽其用”。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500