街坊秀 街坊秀

当前位置: 首页 » 街坊资讯 »

对标英伟达,华为开源AI容器技术Flex:ai 它可使算力平均利用率提升30%

每经记者|王晶    每经编辑|文多    

AI(人工智能)产业高速发展正催生海量算力需求,但全球算力资源利用率偏低的问题日益凸显,“算力资源浪费”成为产业发展的关键桎梏。其具体表现为,小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏GPU(图形处理器)/NPU(神经网络处理器)的通用服务器甚至处于算力“休眠”状态,供需错配造成资源浪费。

11月21日,在2025AI容器应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周跃峰发布了AI容器技术——Flex:ai。据悉,Flex:ai通过算力切分技术,将单张GPU/NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%。此技术实现了单卡同时承载多个AI工作负载,在无法充分利用整卡算力的AI工作负载场景下,算力资源平均利用率可提升30%。

在面临先进制程受限、单颗AI芯片性能与国外存在差距的现实下,Flex:ai延续了华为“以软件补硬件”的发展路径。

值得一提的是,华为这项新技术还将对标英伟达2024年底收购的以色列公司Run:ai。Run:ai的核心产品是基于“Kubernetes”(开源容器编排平台)构建的软件平台。其可通过动态调度、池化和分片等手段优化GPU资源使用。例如,自动驾驶公司Wayve就借助Run:ai将GPU集群效率从不足25%提升到80%以上。华为的Flex:ai同样聚焦于通过软件创新实现对英伟达、昇腾等其他第三方算力的统一管理与调度,屏蔽底层硬件差异,为AI应用提供更高效稳定的资源支撑。

此外,相比Run:ai主要服务于英伟达GPU生态,Flex:ai并没有生态限制,英伟达的GPU和华为昇腾NPU等算力卡都可以使用。

Flex:ai的能力已在真实产业场景中得到验证。瑞金医院与华为联合打造的多模态病理大模型“RuiPath”,被用于识别病理切片病灶区域,覆盖19个常见癌种。该模型基于103万张病理切片数据训练而成,但仅用16张昇腾910B算力卡便可完成大规模训练。这背后离不开Flex:ai的技术支撑,其通过算力资源切分、智能任务调度等技术,将XPU(CPU、GPU、DPU等芯片的统称)资源可用度从40%提升至70%,破解了有限算力下的大规模训练难题。

IT研究与咨询公司“Gartner”的分析师表示,目前AI负载大多都已容器化部署和运行。据预测,到2027年,75%以上的AI工作负载将采用容器技术进行部署和运行。

华为方面称,Flex:ai将在发布后同步开源在魔擎社区中,并与华为此前开源的多款AI工具共同组成完整的ModelEngine(华为推出的AI训推全流程工具链)开源生态。

封面图片来源:图片来源:视觉中国-VCG211478193393

未经允许不得转载: 街坊秀 » 对标英伟达,华为开源AI容器技术Flex:ai 它可使算力平均利用率提升30%