华为首次开源盘古大模型华为开源盘古7B与72B模型华为宣布——首次开源盘古大模型

量子位看科技 2025-06-30 15:28:36

华为首次开源盘古大模型华为开源盘古7B与72B模型

华为宣布——首次开源盘古大模型,而且一口气推出两个版本。

一个是7B参数的盘古Embedded稠密模型,主打“快思考+慢思考”的推理灵活性;

另一个是72B参数的盘古Pro MoE混合专家模型,主打高效稀疏激活与推理性能。

两个模型都针对昇腾NPU进行了深度优化,推理速度和性能表现都很亮眼。

盘古Embedded 7B模型亮点包括:

- 支持任务复杂度自适应切换推理模式(快思/慢想)

- 模型具备元认知能力,能自主判断切换方式

- 小体量(70亿参数)却能在AIME、GPQA等复杂任务中击败Qwen3-8B、GLM4-9B等同行模型

- 架构统一、部署灵活,推理效率与质量兼顾

盘古Pro MoE 72B模型则基于自研MoGE(分组混合专家)架构:

- 激活参数量仅160亿,性能却优于传统稠密72B

- 通过组内均衡激活解决专家负载不均问题

- 昇腾800I A2平台上推理速度最高可达1528 tokens/s

- 支持大规模并行训练,推理性价比高

目前,盘古Pro MoE的模型权重与推理代码已在开源平台上线:

0 阅读:0
量子位看科技

量子位看科技

感谢大家的关注