活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 818算力跃迁·礼遇盛夏 NEW 爆款云主机2核2G限时秒杀,28.8元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
算力互联调度平台
  • 裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
大模型
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
  • Qwen2.5-VL-72B-Instruct
  • StableDiffusion-V2.1
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
AI应用
  • 泛微合同管理解决方案
  • 泛微数智大脑Xiaoe.AI解决方案
  • MaxKB知识库解决方案
  • 天翼AI文创
AI服务
  • 昆仑AI训推服务解决方案
  • 国信模型服务解决方案
企业应用
  • 翼电子签约解决方案
  • 翼协同解决方案
  • 翼电签-契约锁解决方案
  • 翼视频云归档解决方案
教育应用
  • 翼电子教室
  • 潜在AI教育解决方案
建站工具
  • SSL证书
  • 翼定制建站解决方案
  • 翼多端小程序解决方案
办公协同
  • 天翼云企业云盘
  • 安全邮箱
灾备迁移
  • 云管家2.0
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      训推服务

      训推服务

      • 训推服务

      无数据

        • 产品介绍
        • 产品定义
        • 产品优势
        • 功能特性
        • 应用场景
        • 术语解释
        • 使用限制
        • 与其他服务的关系
        • 计费说明
        • 包周期计费模式
        • 按需计费模式-卡时
        • 产品退订
        • 快速入门
        • 准备工作
        • 用户使用流程
        • 用户指南
        • 数据工具
        • 数据处理
        • 模型定制
        • 模型精调
        • 模型精调功能介绍
        • 模型精调功能使用
        • 模型开发
        • 训练任务
        • 模型服务
        • 服务部署
        • 模型工具
        • 模型评估
        • 模型压缩
        • 智算资产
        • 模型管理
        • 我的数据集
        • 基础数据集
        • 标注数据集
        • 我的镜像
        • 我的代码包
        • 管理中心
        • 成员管理
        • 资源总览
        • 调度中心
        • 队列管理
        • 设置
        • 资源配额
        • 工作空间管理
        • 创建工作空间
        • 工作空间关联资源
        • 工作空间成员管理
        • 进入工作空间
        • 工作空间角色权限
        • 操作审计
        • 常见问题
        • 计费类
        • 操作类
        • 最佳实践
        • NLP大模型快速微调
        • 保密数据集最佳实践
        • API参考
        • API列表
        • 推理服务API
        • 如何调用API
        • 接口列表
        • 如何调用API
        • 错误处理
        • 接口类型列表
        • API
        • Chat对话API
        • Image文本生图API
        • Embeddings文本向量化API
        • 模型列表API
        • 模型简介
        • DeepSeek-R1
        • DeepSeek-V3
        • Baichuan2-Turbo
        • Llama3-70B-Instruct
        • Qwen2.5-72B-Instruct
        • Qwen2-72B-Instruct
        • Qwen-VL-Chat
        • TeleChat-12B
        • InternLM2-Chat-7B
        • Qwen-7B-Chat
        • Llama2-Chinese-13B-Chat
        • Chinese-Alpaca-2-13B
        • CodeLlama-34B-Instruct
        • Baichuan2-7B
        • 平台OpenAPI
        • 平台功能API使用说明
        • 文档下载
        • 相关协议
        • 训推智算服务平台服务协议
        • 训推服务用户信息处理规则
          无相关产品

          本页目录

          帮助中心训推服务模型简介Qwen-7B-Chat
          Qwen-7B-Chat
          更新时间 2025-09-08 17:09:15
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2025-09-08 17:09:15
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          本文为您详细介绍Qwen-7B-Chat模型。

          模型简介

          通义千问-7B(Qwen-7B) 是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen-7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen-7B-Chat。

          使用场景

          Qwen系列模型的开发和开源为自然语言处理领域带来了新的可能性,尤其是在需要处理大量数据和复杂语言任务的场景中。主要使用场景包括对话系统、文本生成以及内容创作等。

          评测效果

          对于Qwen-7B-Chat模型,常规的中文理解(C-Eval)、英文理解(MMLU)、代码(HumanEval)和数学(GSM8K)以及长序列任务等权威任务的评测结果如下。

          注意  由于硬件和框架造成的舍入误差,复现结果如有波动属于正常现象。

          中文评测(Chinese Evaluation)

          在C-Eval验证集上,Qwen-7B-Chat模型的0-shot & 5-shot准确率结果如下:

          ModelAvg. Acc.
          LLaMA2-7B-Chat31.9
          LLaMA2-13B-Chat36.2
          LLaMA2-70B-Chat44.3
          ChatGLM2-6B-Chat52.6
          InternLM-7B-Chat53.6
          Baichuan2-7B-Chat55.6
          Baichuan2-13B-Chat56.7
          Qwen-7B-Chat (original) (0-shot)54.2
          Qwen-7B-Chat (0-shot)59.7
          Qwen-7B-Chat (5-shot)59.3
          Qwen-14B-Chat (0-shot)69.8
          Qwen-14B-Chat (5-shot)71.7

          C-Eval测试集上,Qwen-7B-Chat模型的zero-shot准确率结果如下:

          ModelAvg.STEMSocial SciencesHumanitiesOthers
          Chinese-Alpaca-Plus-13B41.536.649.743.141.2
          Chinese-Alpaca-2-7B40.3----
          ChatGLM2-6B-Chat50.146.460.450.646.9
          Baichuan-13B-Chat51.543.764.656.249.2
          Qwen-7B-Chat (original)54.647.867.659.350.6
          Qwen-7B-Chat58.653.372.162.852.0
          Qwen-14B-Chat69.165.180.971.263.4

          在7B规模模型上,经过人类指令对齐的Qwen-7B-Chat模型,准确率在同类相近规模模型中仍然处于前列。

          英文评测(English Evaluation)

          MMLU评测集上,效果同样在同类对齐模型中同样表现较优。Qwen-7B-Chat模型的 0-shot & 5-shot 准确率如下:

          ModelAvg. Acc.
          ChatGLM2-6B-Chat46.0
          LLaMA2-7B-Chat46.2
          InternLM-7B-Chat51.1
          Baichuan2-7B-Chat52.9
          LLaMA2-13B-Chat54.6
          Baichuan2-13B-Chat57.3
          LLaMA2-70B-Chat63.8
          Qwen-7B-Chat (original) (0-shot)53.9
          Qwen-7B-Chat (0-shot)55.8
          Qwen-7B-Chat (5-shot)57.0
          Qwen-14B-Chat (0-shot)64.6
          Qwen-14B-Chat (5-shot)66.5

          代码评测(Coding Evaluation)

          Qwen-7B-Chat在HumanEval的zero-shot Pass@1效果如下:

          ModelPass@1
          ChatGLM2-6B-Chat11.0
          LLaMA2-7B-Chat12.2
          Baichuan2-7B-Chat13.4
          InternLM-7B-Chat14.6
          Baichuan2-13B-Chat17.7
          LLaMA2-13B-Chat18.9
          LLaMA2-70B-Chat32.3
          Qwen-7B-Chat (original)24.4
          Qwen-7B-Chat37.2
          Qwen-14B-Chat43.9

          数学评测(Mathematics Evaluation)

          在评测数学能力的GSM8K上,Qwen-7B-Chat的准确率结果如下:

          ModelAcc.
          LLaMA2-7B-Chat26.3
          ChatGLM2-6B-Chat28.8
          Baichuan2-7B-Chat32.8
          InternLM-7B-Chat33.0
          LLaMA2-13B-Chat37.1
          Baichuan2-13B-Chat55.3
          LLaMA2-70B-Chat59.3
          Qwen-7B-Chat (original) (0-shot)41.1
          Qwen-7B-Chat (0-shot)50.3
          Qwen-7B-Chat (8-shot)54.1
          Qwen-14B-Chat (0-shot)60.1
          Qwen-14B-Chat (8-shot)59.3

          长序列评测(Long-Context Understanding)

          通过使用NTK(Neural Tangent Kernel)插值技术和LogN注意力缩放方法,Qwen-7B-Chat模型能够显著扩展其处理上下文的长度。在长文本摘要任务中,特别是在VCSUM数据集上,Qwen-7B-Chat模型展示了其强大的长序列理解能力。其Rouge-L评估指标的结果如下:

          说明

          为了启用这些增强长序列处理能力的技巧,您需要在模型的配置文件config.json中将use_dynamic_ntk和use_logn_attn两个选项设置为true。这样配置后,模型将能够利用NTK插值和LogN注意力缩放来优化其对长序列的处理。

          ModelVCSUM (zh)
          GPT-3.5-Turbo-16k16.0
          LLama2-7B-Chat0.2
          InternLM-7B-Chat13.0
          ChatGLM2-6B-Chat16.3
          Qwen-7B-Chat16.6

          技术亮点

          与Qwen-7B预训练模型相同,Qwen-7B-Chat模型规模基本情况如下所示:

          HyperparameterValue
          n_layers32
          n_heads32
          d_model4096
          vocab size151851
          sequence length8192
          • 在位置编码、FFN激活函数和normalization的实现方式上,采用目前最流行的做法,即RoPE相对位置编码、SwiGLU激活函数、RMSNorm(可选安装flash-attention加速)。

          • 在分词器方面,相比目前主流开源模型以中英词表为主,Qwen-7B-Chat使用了约15万token大小的词表。该词表在GPT-4使用的BPE词表cl100k_base基础上,对中文、多语言进行了优化,在对中、英、代码数据的高效编解码的基础上,对部分多语言更加友好,方便用户在不扩展词表的情况下对部分语种进行能力增强。词表对数字按单个数字位切分。调用较为高效的tiktoken分词库进行分词。

          相关引用

          如对你有帮助,欢迎引用!

          @article{qwen,
            title={Qwen Technical Report},
            author={Jinze Bai and Shuai Bai and Yunfei Chu and Zeyu Cui and Kai Dang and Xiaodong Deng and Yang Fan and Wenbin Ge and Yu Han and Fei Huang and Binyuan Hui and Luo Ji and Mei Li and Junyang Lin and Runji Lin and Dayiheng Liu and Gao Liu and Chengqiang Lu and Keming Lu and Jianxin Ma and Rui Men and Xingzhang Ren and Xuancheng Ren and Chuanqi Tan and Sinan Tan and Jianhong Tu and Peng Wang and Shijie Wang and Wei Wang and Shengguang Wu and Benfeng Xu and Jin Xu and An Yang and Hao Yang and Jian Yang and Shusheng Yang and Yang Yao and Bowen Yu and Hongyi Yuan and Zheng Yuan and Jianwei Zhang and Xingxuan Zhang and Yichang Zhang and Zhenru Zhang and Chang Zhou and Jingren Zhou and Xiaohuan Zhou and Tianhang Zhu},
            journal={arXiv preprint arXiv:2309.16609},
            year={2023}
          }

          免责声明

          Qwen-7B-Chat模型来源于第三方,本平台不保证其合规性,请您在使用前慎重考虑,确保合法合规使用并遵守第三方的要求。

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  InternLM2-Chat-7B
          下一篇 :  Llama2-Chinese-13B-Chat
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明