searchusermenu
  • 发布文章
  • 消息中心
刘****华
3 文章|0 获赞|1 粉丝|625 浏览
社区专栏视频问答关注
全部文章Ta的评论
  • MoE(Mixture of Experts,混合专家模型)架构是一种在大模型领域中用于提升性能和效率的重要技术。本文主要介绍DeepSeek-MoE模型中的MoE结构。
    刘****华
    2024-12-11
    478
    0
  • 解析DeepSeek-LLM论文中关于缩放定律的探索性工作
    刘****华
    2024-09-20
    129
    0
  • 本文主要对 Meta AI 研究团队发表的论文《LLaMA: Open and Efficient Foundation Language Models》进行了内容梳理和解读,介绍了一系列名为 LLaMA(Large Language Model Meta AI)的开源基础语言模型。这些模型的设计目标是实现高效的计算和广泛的可用性,即使在相对较小的计算资源下也能实现良好的性能。文章讨论了如何通过优化架构设计,使得 LLaMA 模型在训练过程中更高效,并且在不同规模的数据集和任务上都有很好的表现。
    刘****华
    2024-09-05
    18
    0
个人简介
暂未填写公司和职务
暂未填写个人简介
暂未填写技能专长
暂未填写毕业院校和专业
个人成就
共发表过 3 篇文章
文章获得 0 次赞同
文章被浏览 625 次
获得 1 人关注
个人荣誉查看规则
暂未获得荣誉