活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      物理机

      物理机

        • 产品动态
        • DeepSeek专题
        • DeepSeek专题导航
        • 图解:DeepSeek与公有云深度融合
        • 从基础设施到智能中枢:DeepSeek如何重塑公有云服务价值链
        • 高性能GPU云主机助力DeepSeek深度应用
        • 天翼云SD-WAN与DeepSeek超强联动,开启云上高效互联新时代
        • 实践指南:DeepSeek驱动高效能云生态
        • GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南
        • GPU物理机:物理机搭建DeepSeek指南
        • NVIDIA GPU物理机搭建DeepSeek指南(单机版)
        • 昇腾 910B 物理机搭建DeepSeek指南(单机版)
        • 昇腾 910B 物理机搭建DeepSeek指南(多机版)
        • SD-WAN跨境:SD-WAN助力DeepSeek模型定向加速
        • 智算容器:云容器引擎与DeepSeek融合实践
        • 函数计算:天翼云函数计算与DeepSeek大模型
        • Q&A:典型问题解析与策略应对
        • 产品简介
        • 产品定义
        • 产品优势
        • 产品应用场景
        • 物理机镜像
        • 镜像概述
        • 物理机类型与支持的操作系统版本
        • 标准裸金属
        • 弹性裸金属
        • 云硬盘
        • 网络
        • 安全
        • 身份认证与访问控制
        • 主机监控
        • 区域和可用区
        • 物理机与其他服务的关系
        • 产品支持和使用限制
        • 支持列表
        • 使用限制
        • 产品规格
        • 实例概述
        • 通用型
        • 计算型
        • 大数据型
        • GPU型
        • 国产化型
        • 购买指南
        • 计费说明
        • 实例到期的影响
        • 快速入门
        • 注册账号
        • 创建物理机
        • 登录物理机
        • 部署应用环境
        • 释放物理机
        • 用户指南
        • 实例
        • 创建物理机
        • 创建指南
        • 通过私有镜像创建物理机
        • 批量设置有序的实例名称或主机名称
        • 查看物理机信息
        • 登录物理机
        • 登录方式概述
        • 登录Linux物理机
        • 登录Windows物理机
        • 管理物理机
        • 物理机开机/关机/重启操作
        • 物理机重装操作系统
        • 物理机重置密码操作
        • 物理机实例名称/主机名称修改操作
        • 物理机续订/释放操作
        • GPU驱动安装说明
        • Ubuntu操作系统安装Nvidia GPU驱动
        • Centos操作系统安装Nvidia GPU驱动
        • 镜像
        • 私有镜像与通过物理机创建私有镜像
        • 常用GPU镜像-关闭及禁用防火墙操作文档
        • 磁盘
        • 磁盘类型概述与挂载/卸载/扩容
        • 初始化数据盘
        • 初始化数据盘场景及磁盘分区形式介绍
        • 初始化Windows数据盘(Windows 2019)
        • 初始化Linux数据盘(fdisk)
        • 初始化Linux数据盘(parted)
        • 容量大于2TB,初始化Linux数据盘(parted)
        • 容量大于2TB,初始化Windows数据盘(Windows 2012)
        • 配置RAID
        • 云盘随实例释放
        • 网络
        • 弹性IP
        • 弹性IP概述
        • 绑定弹性IP
        • 解绑弹性IP
        • 修改弹性IP的带宽
        • 虚拟私有云
        • 虚拟私有云概述
        • 绑定虚拟IP至物理机
        • 修改私有IP地址
        • 安全
        • 安全组
        • 创建和管理企业项目
        • 统一身份认证IAM
        • 统一身份认证IAM介绍
        • 通过IAM用户控制资源访问
        • 资源位置与调整资源配额
        • API参考
        • API使用说明
        • 最佳实践
        • 物理机监控最佳实践
        • 介绍说明
        • 物理机面板查看
        • 云监控面板查看
        • 创建告警规则
        • 弹性裸金属ORACLE RAC搭建最佳实践
        • 介绍说明
        • 资源规划
        • 资源创建
        • 云网络资源创建
        • 云硬盘资源创建
        • 物理机资源创建
        • Oracle软件配置安装
        • 系统环境配置
        • Oracle RAC安装前准备
        • Oracle Grid集群管理软件安装
        • 使用ASMCA配置数据盘分组
        • Oracle Database软件安装
        • Oracle数据库初始化
        • 智算场景NVIDIA GPU镜像组件的安装指南
        • 物理机搭建DeepSeek指南
        • NVIDIA GPU物理机搭建DeepSeek指南(单机版)
        • 昇腾 910B 物理机搭建DeepSeek指南(单机版)
        • 昇腾 910B 物理机搭建DeepSeek指南(多机版)
        • 昇腾 910B 物理机使用Galaxy镜像部署DeepSeek指南(单机版)
        • 昇腾 910B 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
        • 昇腾 910B 物理机使用Galaxy镜像嵌入式模型部署指南
        • NVIDIA GPU物理机使用Galaxy镜像部署DeepSeek指南(单机版)
        • NVIDIA GPU 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
        • 昇腾 910B 物理机通过benchmark测试推理性能的操作指南
        • NVIDIA GPU A800(80G)物理机双机部署指南
        • 通过EvalScope测试推理性能的操作指南
        • 常见问题
        • 通用类
        • 实例类
        • 计费类
        • 密码类
        • 登录类
        • 网络和安全类
        • 磁盘类
        • 操作系统类
        • 故障排除
        • Linux系统常见启动问题
        • Linux系统启动时,Grub报错找不到设备
        • Linux系统启动时,dracut报错某分区找不到,无法系统并进入紧急模式。
        • Linux系统启动时,报错无法挂载根分区
        • 用户升级Centos系统内核后,无法连接服务器
        • 修改ssh端口后,无法通过ssh远程连接服务器
        • 物理机数据盘的分区挂载失败
        • 国产化弹性裸金属网络优化配置
        • 视频专区
        • 文档下载
        • 用户使用手册
        • 相关协议
        • 产品服务协议
        • 产品服务等级协议
          无相关产品

          本页目录

          帮助中心物理机最佳实践昇腾 910B 物理机通过benchmark测试推理性能的操作指南
          昇腾 910B 物理机通过benchmark测试推理性能的操作指南
          更新时间 2025-05-12 14:27:04
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2025-05-12 14:27:04
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接

          一、引言

          随着大语言模型(LLM)在自然语言处理(NLP)领域的广泛应用,如何准确评估这些模型在不同配置参数下的推理性能和精度成为了一个重要的研究课题。为了满足这一需求,我们使用了服务化的MindIE Benchmark工具。该工具通过部署昇腾服务化配套包后,以调用终端命令的方式进行测试,能够全面评估大语言模型在各种配置下的推理表现,并将结果以直观的表格形式展示。

          1.1 工具概述

          服务化的MindIE Benchmark工具不仅支持多种推理模式,还提供了详细的统计分析功能。它能够测量并记录模型在各个阶段的推理耗时,例如FirstTokenTime、DecodeTime等,并计算出对应时延的平均值、最小值、最大值、75分位(P75)、90分位(P90/SLO_P90)和99分位(P99)概率统计值。最终,所有计算结果将被保存到本地的CSV文件中,便于进一步分析和对比。

          1.2 使用须知

          在使用MindIE Benchmark之前,有几个关键点需要注意:

          1. 路径权限:Benchmark当前运行路径的属主和属组必须与当前用户所在组相对应。可以通过 ls -l <路径> 查看指定路径的属主和属组,并使用 chown <属主>:<属组> <路径> 更改指定路径的属主和属组。日志文件、权重配置文件和用户配置文件等通常涉及文件或目录属主/属组检验。
          2. 网络波动影响:在Client模式下,MindIE Client与Server-Endpoint之间的通信会受到网络波动的影响,这可能会对最终统计的性能结果产生一定影响。

          1.3 应用场景

          MindIE Benchmark支持两种不同的推理模式,以适应不同的应用场景需求:

          1. Client模式:
          • 该模式通过调用MindIE Client接口与Server-Endpoint进行通信并完成测试。

          • 文本模式下支持全量文本生成及流式文本生成两种方式,分别调用MindIE Client的 .generate() 和 .generate_stream() 接口,对应MindIE Server的兼容Triton的文本推理接口和兼容Triton的流式推理接口。

          • 此模式适用于模拟多用户并发场景,兼容TGI、Triton和vLLM等多种接口,主要用于测量服务化性能。Client测量的吞吐量为用户真实感知的吞吐量,其计入包括网络请求和数据处理等消耗的时间。

          1. Engine模式:
          • 该模式通过直接调用MindIE LLM中LLM Manager提供的Python接口进行全量推理,详细接口说明请参见《MindIE LLM开发指南》中的“API接口说明 > LLM Manager提供的Python接口”章节。
          • 支持token id到token id异步推理和文本到文本的异步推理。
          • 支持精度测试的数据集包括纯文本数据集CEval 5-shot、GSM8K、MMLU 5-shot和多模态数据集TextVQA、VideoBench、VocalSound。性能测试的数据集则包括GSM8K、OA、CEval 5-shot、MMLU 5-shot、BoolQ、HumanEval、mtbench和cocotest,主要使用GSM8K和OA两个数据集来测试模型的性能。
          • Engine模式测量的吞吐量更接近NPU卡的真实性能,因为它是直接调用底层API并将NPU推理返回的结果暂存,当所有推理完成后由CPU处理暂存的数据。
          在Engine模式中,使用的ModelName(模型名称)和ModelPath(模型权重路径)需要与MindIE Server的config.json配置文件中的modelName和modelWeightPath参数保持一致。此外,npuDeviceIds(NPU卡编号)和maxBatchSize(最大decode batch size)参数的值是由MindIE Server中的config.json配置文件决定的,详情请参见配置参数说明。
          
          MindIE Benchmark工具为评估大语言模型的推理性能和精度提供了一种高效且灵活的方式。通过详细的统计分析和可视化展示,用户可以轻松了解模型在不同配置下的表现,并根据实际需求进行优化调整。无论是Client模式还是Engine模式,MindIE Benchmark都能为用户提供可靠的性能评估支持,助力大语言模型的应用与发展。
          

          二、测试过程

          2.1 环境变量配置

          进入部署过程中启动的容器内,使用以下命令配置环境变量。

          2.2 导入数据集

          导入文本推理数据集:test_data_gsm8k.jsonl

          示例:

          {"question": "<_system>你是中国电信星辰语义大模型,英文名是TeleChat,你是由中电信人工智能科技有限公司和中国电信人工智能研究院(TeleAI)研发的人工智能助手。\n<_user>\n你是一位擅长文本生成的智能助手,能够从多轮对话中理解上下文关系并提炼出用户的完整问题。请按照以下步骤处理用户的对话内容:\n\n1. 【识别上下文关系】:判断多轮对话问题之间是否存在关联。如果对话之间存在关联,则返回true,如果对话之间相互独立,则返回false。用【hasContext】来表示。\n2. 【关联对话轮次】:将相互关联的对话轮次分组,并存储在列表中。每组应该包含相关的对话轮次。如果没有上下文关系,则直接返回空列表,用【mergeRound】来表示。\n3. 【总结用户问题】:根据每组轮次的内容,概括总结出用户的完整问题。注意总结时仅关注该组的对话内容,尽量足够精简不要重复,用【contextAnswer】来表示。\n4. 【构建JSON】:返回一个JSON字符串,格式如下:\n   {\n     \"hasContext\": \"表示是否存在上下文关系\", \n     \"mergeRound\": \"表示需要合并的轮次\",\n     \"contextAnswer\": \"表示概括总结的完整问题\"\n   }\n\n下面是 【河北省】 用户的多轮对话内容:\n第1轮对话:我的宽带协议到期,8月1日。再续协议怎么办理?\n第2轮对话:你查一下我用好多年了\n\n【输出结果】:\n<_bot>", "answer": "{\"hasContext\": \"true\", \"mergeRound\": [[1, 2]], \"contextAnswer\": [\"宽带到期怎么续约\"]}"}
          

          2.3 启动命令

          2.3.1 不带后处理性能测试样例

          Client推理模式运行时,会调用MindIE Client相应的接口向MindIE Server Endpoint发送推理请求并进行打点统计,与用户实际使用情景一致。

          benchmark \
          --DatasetPath "/model/test_data_gsm8k.jsonl" \
          --DatasetType "gsm8k" \
          --ModelName deepseekr1 \
          --ModelPath "/model/DeepSeek-R1-bf16" \
          --TestType client \
          --Http http://主节点ip:port \
          --Concurrency 20 \
          --TaskKind text \
          --Tokenizer True \
          --MaxOutputLen 512
          

          DatasetPath:数据集文件所在的目录,根据数据集路径获取数据,解析后根据批次和分词标识进行处理.Tokenizer为True时:采用文本推理模式,该参数应该传入原始数据集文件夹路径;Tokenizer为False时:采用tokenids推理模式,该参数传入已经将数据集处理为tokenids的csv文件的路径。(--Tokenizer为False时,数据集转换方式参考数据集使用)

          DatasetType:数据集类型,枚举值:ceval、gsm8k、oasst1、boolq、truthfulqa、humaneval、mmlu、mtbench、cocotest和synthetic。

          ModelName:模型名称。与MindIE ServerModelConfig参数说明中的modelName参数保持一致。

          ModelPath:模型路径;传递模型初始化配置。与MindIE ServerModelConfig参数说明中的modelWeightPath参数保持一致。

          TestType:取值为client、vllm_client、tgi_client、openai或triton_client。其中vllm_client、tgi_client或triton_client只能基于对应的三方框架上才能运行。

          Http:请求url,默认为"https://127.0.0.1:1025",实际请根据MindIE ServerScheduleConfig参数说明中的ipAddress和port参数进行配置。

          Concurrency:并发数,限制同时发起的连接数。Client模式下,不超过endpoint所支持的最大连接数。取值范围:[1,1000]。

          TaskKind:判断使用Client的哪种模式进行推理,默认值为stream。stream:流式推理接口;text:非流式推理接口;stream_token:token流式推理接口。

          Tokenizer:分词向量化标识,取值True或者False,默认值为True。True:输入结果为文本;False:表示输入结果为tokens。

          MaxOutputLen:最大输出长度,取值范围:[1,1048576]。该参数与ScheduleConfig参数说明中的“maxlterTimes”参数取小作为最大输出长度。当“DatasetType”取值为“synthetic”时,该参数无效,通过配置文件synthetic_config.json中的“Output”参数控制最大输出长度。

          2.4 参数调整(可选)

          进入MindIE Benchmark的安装路径{$HOME}/{python版本}/site-packages/mindiebenchmark/config并打开“config.json”文件

          例如:vim /usr/local/lib/python3.11/site-packages/mindiebenchmark/config/config.json

          1.png

          CA_CERT:验签证书文件路径,为MindIE Server服务端证书的验签证书/根证书。当使用MindIE Benchmark的Client推理模式且MindIE Server的配置参数httpsEnabled为true时,必须配置。

          KEY_FILE:客户端私钥文件路径。当使用MindIE Benchmark的Client推理模式且MindIE Server的配置参数httpsEnabled为true时,必须配置。

          CERT_FILE:客户端证书文件路径。当使用MindIE Benchmark的Client推理模式且MindIE Server的配置参数httpsEnabled为true时,必须配置。

          CRL_FILE:客户端吊销列表证书文件路径。可选配置,当使用MindIE Benchmark的Client推理模式且MindIE Server的配置参数httpsEnabled为true时,会校验验签证书是否在吊销列表内。

          INSTANCE_PATH:MindIE Benchmark结果保存路径,默认保存在./instance。

          ENABLE_MANAGEMENT:MindIE Benchmark管理端口使能。MindIE Benchmark是否通过管理端口查询服务端健康状态。默认值:false

          MAX_LINK_NUM:服务端最大连接数,默认为1000。当前支持最大连接数为1000,不可配置超过1000。

          2.5 查看测试结果

          2.png

          其中Concurrency表示并发数(此处设置为20),

          GenerateSpeedPerClient表示单用户生成token/s的速度。

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  NVIDIA GPU 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
          下一篇 :  NVIDIA GPU A800(80G)物理机双机部署指南
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明