北京深度求索公司推出首个国产开源MoE大模型
快讯 零壹财经 零壹财经 2024-01-15 阅读:887
关键词:大模型
关键词:大模型
1月15日讯,北京深度求索公司推出首个国产开源MoE大模型DeepSeek MoE,性能媲美Llama 2-7B,计算量降低60%。DeepSeek MoE目前推出的版本参数量为160亿,实际激活参数量大约是28亿。此外,深度求索团队还透露,DeepSeek MoE模型还有145 B版本正在研发。阶段性的初步试验显示,145 B的DeepSeek MoE对GShard 137 B具有极大的领先优势,同时能够以28.5%的计算量达到与密集版DeepSeek 67 B模型相当的性能。(量子位)
相关文章
用户评论
所有评论
主编精选
more专题推荐
more
第四届中国零售金融发展峰会(共15篇)
资讯排行
- 48h
- 7天
-
首页
-
评论
-
回顶部
游客
自律公约