searchusermenu
  • 发布文章
  • 消息中心
点赞
收藏
评论
分享
原创

DeepSeek-V4开源上线魔乐社区,Day0解锁昇腾部署

2026-05-13 18:11:51
2
0

万众期待的DeepSeek-V4终于来了!拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先

 

魔乐社区同步上线 DeepSeek开源权重 + 国产算力适配版,助你 Day0 开启“国产SOTA模型 × 国产算力” 双Buff加持的体验。同时,魔乐社区的DeepSeek专区已更新,将陆续上线DeepSeek-V4技术干货和更多国产算力适配模型,欢迎开发者关注体验!

 

🔗 开源权重:

https://modelers.cn/user/deepseek-ai?model_name=DeepSeek-V4 

 

🔗 量化权重(NPU适配):

https://modelers.cn/models/Eco-Tech/DeepSeek-V4-Flash-w8a8-mtp  

 

🔗  FlagOS多芯适配版(昇腾、沐曦、海光等):

https://modelers.cn/user/FlagRelease?model_name=deepseek-v4 

 

🔗 DeepSeek专区:

https://modelers.cn/topics/deepseek

 

模型亮点

双版本,Pro性能比肩顶级闭源模型

DeepSeek V4 此次开源两个版本的混合专家架构(MoE)语言模型:DeepSeek-V4-Pro和DeepSeek-V4-Flash,二者均支持百万Token 的上下文长度。

 

 

DeepSeek-V4-Pro:

 

  • Agent 能力大幅提高:在 Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。

  • 世界知识丰富:在世界知识测评中,V4-Pro大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1。

  • 世界顶级推理性能:在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。

 

 

DeepSeek-V4 针对 Claude Code、OpenClaw、OpenCode、CodeBuddy等主流的Agent产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。

 

DeepSeek-V4-Flash:更快捷高效的经济之选

 

  • 相比 DeepSeek-V4-Pro,DeepSeek-V4-Flash 在世界知识储备方面稍逊一筹,但展现出了接近的推理能力。而由于模型参数和激活更小,相较之下 V4-Flash 能够提供更加快捷、经济的 API 服务。

  • 在 Agent 测评中,DeepSeek-V4-Flash 在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,但在高难度任务上仍有差距。

 

 

结构创新带来超高上下文效率

 

 

DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。而且,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配

 

欢迎体验

 

在魔乐社区,你可以轻松开启DeepSeek-V4的探索之旅:

 

1. 极速下载

通过社区专属高速通道,快速获取模型权重和适配版本,即刻上手体验,进行部署和微调开发。

 

2. 在线创建 AI 应用

进入“体验空间”,使用魔乐社区的普惠国产算力和易用工具链,无需复杂部署即可在线推理、创建专属 AI 应用,快速验证想法。

 

3. 交流共创共成长

前往社区“博客”板块,分享实测效果、微调方案与应用案例,与开发者共同挖掘DeepSeek-V4的无限潜力。

 

 

0条评论
作者已关闭评论
李****囡
5文章数
0粉丝数
李****囡
5 文章 | 0 粉丝
原创

DeepSeek-V4开源上线魔乐社区,Day0解锁昇腾部署

2026-05-13 18:11:51
2
0

万众期待的DeepSeek-V4终于来了!拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先

 

魔乐社区同步上线 DeepSeek开源权重 + 国产算力适配版,助你 Day0 开启“国产SOTA模型 × 国产算力” 双Buff加持的体验。同时,魔乐社区的DeepSeek专区已更新,将陆续上线DeepSeek-V4技术干货和更多国产算力适配模型,欢迎开发者关注体验!

 

🔗 开源权重:

https://modelers.cn/user/deepseek-ai?model_name=DeepSeek-V4 

 

🔗 量化权重(NPU适配):

https://modelers.cn/models/Eco-Tech/DeepSeek-V4-Flash-w8a8-mtp  

 

🔗  FlagOS多芯适配版(昇腾、沐曦、海光等):

https://modelers.cn/user/FlagRelease?model_name=deepseek-v4 

 

🔗 DeepSeek专区:

https://modelers.cn/topics/deepseek

 

模型亮点

双版本,Pro性能比肩顶级闭源模型

DeepSeek V4 此次开源两个版本的混合专家架构(MoE)语言模型:DeepSeek-V4-Pro和DeepSeek-V4-Flash,二者均支持百万Token 的上下文长度。

 

 

DeepSeek-V4-Pro:

 

  • Agent 能力大幅提高:在 Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。

  • 世界知识丰富:在世界知识测评中,V4-Pro大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1。

  • 世界顶级推理性能:在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。

 

 

DeepSeek-V4 针对 Claude Code、OpenClaw、OpenCode、CodeBuddy等主流的Agent产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。

 

DeepSeek-V4-Flash:更快捷高效的经济之选

 

  • 相比 DeepSeek-V4-Pro,DeepSeek-V4-Flash 在世界知识储备方面稍逊一筹,但展现出了接近的推理能力。而由于模型参数和激活更小,相较之下 V4-Flash 能够提供更加快捷、经济的 API 服务。

  • 在 Agent 测评中,DeepSeek-V4-Flash 在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,但在高难度任务上仍有差距。

 

 

结构创新带来超高上下文效率

 

 

DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。而且,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配

 

欢迎体验

 

在魔乐社区,你可以轻松开启DeepSeek-V4的探索之旅:

 

1. 极速下载

通过社区专属高速通道,快速获取模型权重和适配版本,即刻上手体验,进行部署和微调开发。

 

2. 在线创建 AI 应用

进入“体验空间”,使用魔乐社区的普惠国产算力和易用工具链,无需复杂部署即可在线推理、创建专属 AI 应用,快速验证想法。

 

3. 交流共创共成长

前往社区“博客”板块,分享实测效果、微调方案与应用案例,与开发者共同挖掘DeepSeek-V4的无限潜力。

 

 

文章来自个人专栏
文章 | 订阅
0条评论
作者已关闭评论
作者已关闭评论
0
0