首页 文章管理 家电百科 实时讯息 常识
您的位置: 首页 > 实时讯息 >

华为宣布开源盘古7B稠密和72B混合专家模型

[中国,深圳,2025年6月30日] 今日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。

此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

1. 盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。

2. 基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。

3. 盘古7B相关模型权重与推理代码将于近期上线开源平台。

华为诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。请访问https://gitcode.com/ascend-tribe

相关文章
(经济观察)中国模型开源“接二连三” 开辟全球AI发展新路径
2025-07-26 20:42:00
国家能源局为绿电消费划硬性“KPI”,电解铝首迎强制消费考核
2025-07-25 20:00:00
手机可以查档案了!
2025-07-06 19:42:00
《快手2025反诈治理报告》发布,AI大模型助力诈骗治理提质增效
2025-07-06 00:09:00
华为宣布开源盘古7B稠密和72B混合专家模型
2025-06-30 10:20:00