华为给盘古70亿参数的稠密模型,还有盘古pro moe 720亿参数的混合专家模型,加上基于腾的推理技术都

6月30日这天,华为在北京搞了个大动作。中新社的刘育英把这个消息发了出来,说华为正式给盘古70亿参数的稠密模型,还有盘古Pro MoE 720亿参数的混合专家模型,加上基于昇腾的推理技术都放了出来。这可是华为头一回把大模型开源。 马继华给中新社的记者讲,盘古70亿的那个全参数稠密结构,调起来特别顺手,像金融、制造这些复杂活儿都能接着干。至于盘古Pro MoE 72B,它用的是混合专家架构,性能赶上千亿级的了,还省内存,特别适合做高难度任务。 华为这边的策略是搞生态,把技术搞开放了,想让大家伙儿都来用。他们给全球的开发者还有企业伙伴们都发了邀请码,赶紧去下载试试。这次动作的重点是让大家有了现成的工具包(盘古Pro MoE 72B)和用得顺手的超大规模MoE推理代码,以后的盘古7B也马上就出来了。 达睿咨询的马继华觉得,现在想在AI这圈里跑赢别人,就得靠开放和共建生态。把好东西拿出来分享,产业优势才能出来,这就是那个所谓的飞轮效应嘛。