《科创板日报》21日讯,华为今日发布Flex:ai AI容器软件,通过算力切分技术,将单张GPU/NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%,实现了单卡同时承载多个AI工作负载,并可聚合集群内各节点的空闲XPU算力聚合形成“共享算力池”。

据悉,Flex:ai将在发布后同步开源在魔擎社区中,以促进技术共享与生态发展。
这一创新使得单张算力卡能够同时承载多个 AI 工作负载,显著提升硬件资源利用率。
同时,Flex:ai 能够将集群内各计算节点的空闲 XPU 算力进行高效聚合,形成统一的 " 共享算力池 ",实现算力资源的全局调度与灵活分配。
其核心技术原理是一套深度融合软硬件的系统工程,覆盖从底层芯片到顶层调度。通过创新性的软件技术深度挖掘硬件潜力,Flex:ai 成功将 GPU/NPU 的典型利用率从 30%-40% 提升至 70%,有效践行了 " 以软件补硬件 " 的理念。
在硬件协同方面,Flex:ai 深度整合华为自研的昇腾 AI 处理器,通过软硬件协同设计优化,实现了最佳的性能功耗比。
特别在大模型训练场景中,Flex:ai 通过软件层面的创新,实现了对包括英伟达 GPU、昇腾 NPU 在内的多种异构算力资源的统一管理与调度,有效解决了当前大模型训练面临的算力效率瓶颈问题。
更新时间:2025-11-24
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号