6月4日消息,昆仑万维宣布开源 2 千亿参数稀疏大模型 Skywork-MoE , 性能强劲, 同时推理成本更低。Skywork-MoE 的模型权重、技术报告完全开源,免费商用。
据介绍,Skywork-MoE 基于之前昆仑万维开源的 Skywork-13B 模型中间 checkpoint 扩展而来, 是首个完整将 MoE Upcycling 技术应用并落地的开源千亿 MoE大模型,也是首个支持用单台 4090 服务器推理的开源千亿 MoE大模型。
在相同的激活参数量 20B(推理计算量)下,Skywork-MoE 能力在行业前列,接近 70B 的 Dense 模型。使得模型的推理成本有近 3 倍的下降。同时 Skywork-MoE 的总参数大小比 DeepSeekV2 的总参数大小要小 1/3,用更小的参数规模做到了相近的能力。
昆仑万维表示,希望本次开源的 Skywork-MoE 模型、技术报告和相关的实验结果可以给开源社区贡献更多的 MoE 训练经验和 Know-how,包括模型结构、超参选择、训练技巧、训练推理加速等各方面, 探索用更低的训练推理成本训更大更强的模型,在通往 AGI 的道路上贡献一点力量。
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 华为全联接大会:All Intelligence成主角,行业数智化大势所趋
- 高通被曝洽购英特尔 后者市值不足1000亿美元
- 好未来田密:AI将打破教育业“不可能三角”理论
- 云栖通道看AI产业应用,打开大模型的无限可能
- 熬梨膏、摘石榴等秋收风俗亮相直播间,抖音主播办“村晚”吸引324万网友线上观看
- TechWeb微晚报:华为Mate XT开卖秒光,大众汽车被曝裁员近3万人
- 阿里云无影AI云电脑亮相:体验超传统PC,可畅玩《黑神话:悟空》
- Bose 推出全新Bose QuietComfort消噪耳塞 售价1499元
- 科技霸权遭遇挑战:苹果在欧盟压力下或被迫开放iPhone系统
- 换电版Model Y只卖15万!乐道L60,稳了?
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。