首页 > 快讯

字节开源MoE关键优化技术,训练成本再砍40%,内部万卡集群已部署

快讯 零壹财经 零壹财经 2025-03-11 阅读:1284

关键词:字节跳动人工智能


3月10日晚间讯,字节豆包大模型团队官宣开源一项针对 MoE 架构的关键优化技术,可将大模型训练效率提升1.7倍,成本节省40%。据悉,该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万 GPU 小时训练算力。(新浪科技)

上一篇>中国信通院:正式启动多模态智能体技术规范编制工作

下一篇>工行完成DeepSeek大模型私有化部署,大模型已落地200余个场景



相关文章


用户评论

游客

自律公约

所有评论

主编精选

more

专题推荐

more

第四届中国零售金融发展峰会(共15篇)


资讯排行

  • 48h
  • 7天



耗时 226ms