华为宣布开源盘古7B稠密和72B混合专家模型
开心田螺
2026-04-03 04:20:04
6月30日消息,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。1、盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。2、基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。3、盘古7B相关模型权重与推理代码将于近期上线开源平台。(广角观察)

相关内容

热门资讯

便利跨境往来 助力人文交流——...   2026年4月13日,中老铁路国际旅客列车迎来开通运营三周年。该趟列车使中国昆明与老挝万象之间实...
高市再提修宪 引发日本民众广泛...   日本执政党自由民主党12日在东京召开党大会。日本首相兼自民党总裁高市早苗再次表示将推进修宪,相关...
国际能源署:已准备好再次释放战...   △国际能源署署长法提赫·比罗尔(资料图)  国际能源署署长法提赫·比罗尔13日说,希望无需再次动...
乌拉圭驻华大使:期待推进乌中务...   新华社海口4月14日电(记者李欣)乌拉圭驻华大使阿尼瓦尔·卡夫拉尔13日在海南海口举行的第六届中...
视频 | 芬兰总统:美以“选择...   当地时间4月13日,正在美国访问的芬兰总统斯图布在一场智库活动上表示,在美以伊军事冲突中,伊朗目...