活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token 服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
  • Qwen3.5-397B-A17B(正式版)
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      弹性高性能计算 E-HPC

      弹性高性能计算 E-HPC

      • 弹性高性能计算 E-HPC

      无数据

        • 产品动态
        • 产品介绍
        • 产品定义
        • 术语解释
        • 产品特性
        • 产品优势
        • 产品应用场景
        • 产品使用限制
        • 购买指南
        • 计费说明
        • 资源调度
        • SLURM介绍
        • 高性能计算平台
        • 概述
        • 入门指引
        • 创建集群
        • 管理集群
        • 连接集群
        • 扩容集群
        • 配置自动伸缩
        • 管理共享存储
        • 软件管理
        • 删除集群
        • 登录Portal
        • 提交作业
        • 命令行提交作业
        • Portal提交作业
        • ctbatch提交作业
        • 查看作业结果
        • 高性能计算集群
        • 入门指引
        • 创建集群
        • 管理集群
        • 扩容集群
        • 删除集群
        • 部署集群
        • 最佳实践
        • 使用HCC部署DeepSeek-V4-Flash
        • 使用HCC部署DeepSeek-V4-Pro
        • HCC大模型精简版运维指南
        • HCC性能测试工具--EvalScope
        • HCC性能测试工具--天翼云定制版EvalScope
        • 使用VASP软件做分子动力学模拟
        • 使用LAMMPS做分子动力学模拟
        • 使用OpenFOAM软件进行流体力学仿真计算
        • 文档下载
        • 操作手册
        • API参考
        • API使用说明
        • 相关协议
        • 弹性高性能计算服务协议
        • 常见问题
        • 计费类
        • 操作类
        • 管理类
          无相关产品

          本页目录

          帮助中心弹性高性能计算 E-HPC最佳实践HCC性能测试工具--EvalScope
          HCC性能测试工具--EvalScope
          更新时间 2026-05-08 18:47:48
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2026-05-08 18:47:48
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接

          一、总体说明

          1.1 工具概述

          EvalScope是一款专为大模型部署后性能评估设计的压力测试工具,支持多并发场景下的吞吐量、延迟、稳定性等核心指标测试。通过配置输入/输出Token长度、并发数等参数,可模拟真实业务负载,验证模型服务在不同上下文场景下的性能表现。工具基于Apptainer容器化部署,确保环境一致性,降低依赖冲突风险。

          1.2 使用须知

          • 网络配置:被测模型服务需暴露HTTP接口(如 http://{IP}:{PORT}/v1/chat/completions),确保工具可通过IP和端口正常访问。

          • 资源要求:测试过程可能产生高I/O和网络负载,建议在独立测试环境中执行,避免影响生产服务。

          1.3 应用场景

          • 模型部署验证:确认模型服务在指定并发和上下文长度下的响应能力。

          • 性能瓶颈定位:通过多并发和Token配置组合,识别吞吐量下降或延迟突增的临界点。

          • 服务稳定性测试:长时间高负载下验证服务是否存在内存泄漏、连接超时等异常。

          • random数据模式:random 数据集模式需指定 tokenizer-path,按 prefix-length/min/max-prompt-length 随机生成 Prompt;DeepSeek-V4 系列模型权重无内置chat_template.jinja或chat_template.json文件,不支持该模式。

          二、物料准备

          2.1 Evalscope高性能容器SIF文件获取

          基于Apptainer(原 Singularity) 封装的Evalscope压测工具,已完成x86与arm架构适配,使用cthpc一键安装工具,秒级快速下发Apptainer高性能容器灌装,当前支持:

          • 华东1、武汉41、上海15、华北2、华南2、西南1、西南2-贵州、长沙42、杭州7。

          当前上线版本 v1.7.0,cthpc支持自动识别主机硬件架构,智能下发匹配当前架构的程序版本,无需人工区分架构、手动选择安装包,实现跨架构统一分发部署。

          mkdir -p /home/bench
          使用 cthpc 工具极速下发
          cthpc apptainer makecache
          cthpc apptainer install evalscope_v1.7.0 --dir /mnt/nvme0n1/apptainer/

          三、测试过程

          3.1 测试脚本配置

          将以下脚本保存至/home/bench/test.sh

          #!/bin/bash
          
          export URL="http://{IP}:{PORT}/v1/chat/completions"  # 模型服务url
          
          export MODEL_NAME=GLM-5        # 推理服务模型名
          export PARALLEL="1"            # 并发数
          export NUMBER="5"              # 总请求次数,一般可设置为并发数的整数倍
          export INPUT_TOKENS=1024       # 输入token长度
          export OUTPUT_TOKENS=1024      # 输出token长度
          
          export TOKENIZER_PATH=/mnt/nvme1n1/model/GLM-5-w8a8  # 本地模型权重路径,用于读取chat_template文件
          export EVALSCOPE_IMG=/mnt/nvme0n1/apptainer/evalscope_v1.7.0.sif
          
          apptainer exec \
              --bind $TOKENIZER_PATH:/path \
              $EVALSCOPE_IMG \
              evalscope perf \
              --url $URL \
              --model $MODEL_NAME \
              --parallel "$PARALLEL" \
              --number "$NUMBER" \
              --api openai \
              --dataset random \
              --min-prompt-length "$INPUT_TOKENS" \
              --max-prompt-length "$INPUT_TOKENS" \
              --min-tokens "$OUTPUT_TOKENS" \
              --max-tokens "$OUTPUT_TOKENS" \
              --connect-timeout 6000 \
              --read-timeout 6000 \
              --tokenizer-path /path

          3.2 核心参数详解

          参数名描述示例值
          --url模型服务API端点,需包含协议、IP、端口和路径http://127.0.0.1:11025/v1/chat/completions
          --model模型标识(需与服务端返回的 model字段一致)Qwen
          --parallel并发数,模拟同时发起的请求量1
          --number一般可设置为并发数的整数倍,默认10005
          --min-prompt-length最小输入prompt长度1024
          --max-prompt-length最大输入prompt长度1024
          --min-tokens单请求最小输出token长度1024
          --max-tokens单请求最大输出token长度1024
          --stream

          是否使用SSE流输出

          需要启用以测量TTFT(Time to First Token)指标

          默认为:True

          --tokenizer-path

          分词器权重路径

          用于计算输入和输出的token数量

          通常与模型权重在同一目录

          /path
          • min-prompt-length与max-prompt-length设置相同值时,即可指定输入token长度。

          • min-tokens与max-tokens设置相同值时,即可指定输出token长度。

          测试输出结果示例如下:

          测试输出结果分析可参考EvalScope官方文档。

          四、附录

          • 天翼云 HCC 产品文档:弹性高性能计算-产品文档-帮助中心 - 天翼云

           

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  HCC大模型精简版运维指南
          下一篇 :  HCC性能测试工具--天翼云定制版EvalScope
          搜索 关闭
          ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2026天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明