华为官宣开源盘古7B/72B大模型,写作能力强劲,性能跻身开源第五

今日上午,华为在官方微信公众号正式官宣开源盘古7B、72B两款大模型,以及为华为昇腾NPU芯片优化的推理代码,目前均已在国内代码托管平台GitCode正式上线。其中盘古7B(盘古 Embedded)拥有70亿参数量,盘古72B(盘古 Pro MoE)则拥有720亿参数量。

根据华为官方的介绍,盘古7B模型为双系统框架,具备“快思慢想”功能,能够根据任务复杂度自动选择合适的模式,即在常规请求下使用“快思考”模式,在复杂推理任务下使用“慢思考”模式,从而在延迟和推理深度之间实现平衡。在多款复杂推理测试中,盘古7B的性能要强于阿里巴巴旗下的Qwen3-8B、智谱旗下的GLM4-9B,

盘古72B则为MoE混合专家模型,与一般的MoE模型不同,华为提出了一种新型的分组混合专家模型MoGE,其优点在于可以在专家选择阶段对专家进行分组,约束token在每个组内激活等量专家,进而实现负载均衡。

性能方面,华为声称该模型针对昇腾300I Duo、800I A2平台进行优化,在后者上可以实现单卡1148 token/s的推理速度。

根据SuperCLUE中文大模型基准测评5月的数据,盘古72B在开源排行榜中位列第五,总分为58.75分,超越Qwen3-14B、Qwen3-8B,仅次于DeepSeek-R1满血版、DeepSeek-V3满血版以及Qwen3-32B和235B。

值得一提的是,盘古72B的文本理解与创作得分位居榜单之首,为80.48分,但在科学推理能力上仅有39.6分,明显弱于位居榜单前列的其余模型。

此外,在推理模型榜单中,盘古72B的推理能力得分为60.3,并未有明显领先优势。一定程度上说明盘古系列开源模型的推理性能还有待进步。

展开阅读全文

更新时间:2025-07-01

标签:科技   盘古   华为   强劲   模型   性能   专家   模式   旗下   参数   能力   代码

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号

Top