来源网络,各自取用,SDN技术估计要开始大放异彩了
核心看点
- 时间与场合:媒体报道称,华为将于11月21日在2025 AI容器应用落地与发展论坛发布“AI领域突破性技术”。
- 核心目标:以软件创新提升算力资源利用效率,将GPU/NPU等算力的利用率从行业平均的30%—40%提升至约70%,显著释放硬件潜能。
- 技术路径:延续“以软件补硬件”思路,通过对Kubernetes的深度编排与调度优化,实现算力的统一资源管理、池化与分片,从而“屏蔽”不同厂商与架构(含英伟达与昇腾)的硬件差异,提供一致的资源与服务视图。
- 对标方向:与Run:ai(已于2024年底被英伟达以约7亿美元收购)的核心技术路线相近,聚焦AI训练/推理的动态调度与高效利用。
与既有技术栈的关系
- 算力底座:此次软件层突破将与既有的CloudMatrix 384 超节点协同。超节点已在华为云落地,将384颗昇腾NPU + 192颗鲲鹏CPU通过MatrixLink 全对等互联形成“一台超级AI服务器”,单卡推理吞吐达2300 Tokens/s(较非超节点提升近4倍),并支持MoE“一卡一专家”并行推理,算力有效使用率(MFU)提升50%+。
- 规模弹性:在云数据中心可将432个超节点级联,构建最高16万卡超大集群,并支持“日推夜训”等训推一体部署,为大模型训练与推理提供弹性伸缩的基础设施能力。
- 生态与可用性:新一代昇腾AI云服务已服务1300+客户;本次软件层优化有望进一步打破“硬件差异—资源碎片—利用率低”的瓶颈,提升端到端AI工作负载效率。
可能带来的影响
- 降本增效:在同等算力投入下获得更高有效吞吐,缩短训练/推理时长,降低单位算力成本与能耗。
- 多栈兼容:统一调度有望简化多厂商GPU/昇腾混部与迁移复杂度,提升应用可移植性与运维效率。
- 加速落地:更高的资源利用率与更简化的资源编排,将推动大模型行业应用在政务、金融、制造、自动驾驶等场景的规模化普及。
时间与获取方式
- 建议关注华为在11月21日的官方发布与论坛议程,留意技术白皮书、API/SDK与容器/K8s集成方案等配套材料的公开节奏。