全部文章Ta的评论
- MoE(Mixture of Experts,混合专家模型)架构是一种在大模型领域中用于提升性能和效率的重要技术。本文主要介绍DeepSeek-MoE模型中的MoE结构。刘****华2024-12-114780
- 刘****华2024-09-201290
共 3 条
- 1
页
没有更多了
个人简介
暂未填写公司和职务
暂未填写个人简介
暂未填写技能专长
暂未填写毕业院校和专业
个人成就
共发表过 3 篇文章
文章获得 0 次赞同
文章被浏览 625 次
获得 1 人关注
个人荣誉查看规则
暂未获得荣誉