首页 > 快讯

北京深度求索公司推出首个国产开源MoE大模型

快讯 零壹财经 零壹财经 2024-01-15 阅读:887

关键词:大模型


1月15日讯,北京深度求索公司推出首个国产开源MoE大模型DeepSeek MoE,性能媲美Llama 2-7B,计算量降低60%。DeepSeek MoE目前推出的版本参数量为160亿,实际激活参数量大约是28亿。此外,深度求索团队还透露,DeepSeek MoE模型还有145 B版本正在研发。阶段性的初步试验显示,145 B的DeepSeek MoE对GShard 137 B具有极大的领先优势,同时能够以28.5%的计算量达到与密集版DeepSeek 67 B模型相当的性能。(量子位)

上一篇>Sam Altman:未来5-10年大模型都处于“陡峭成长曲线”

下一篇>2023年末全国普惠型小微企业贷款余额增长超23%



相关文章


用户评论

游客

自律公约

所有评论

主编精选

more

专题推荐

more

第四届中国零售金融发展峰会(共15篇)


资讯排行

  • 48h
  • 7天



耗时 218ms