活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
算力互联调度平台
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案智云上海应用生态专区
AI应用
  • 泛微合同管理解决方案
  • 泛微数智大脑Xiaoe.AI解决方案
  • MaxKB知识库解决方案
  • 天翼AI文创
AI服务
  • 昆仑AI训推服务解决方案
  • 国信模型服务解决方案
企业应用
  • 翼电子签约解决方案
  • 翼协同解决方案
  • 翼电签-契约锁解决方案
  • 翼视频云归档解决方案
教育应用
  • 翼电子教室
  • 潜在AI教育解决方案
建站工具
  • SSL证书
  • 翼定制建站解决方案
  • 翼多端小程序解决方案
办公协同
  • 天翼云企业云盘
  • 安全邮箱
灾备迁移
  • 云管家2.0
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      训推服务

      训推服务

      • 训推服务

      无数据

        • 产品动态
        • 产品介绍
        • 产品定义
        • 产品优势
        • 功能特性
        • 应用场景
        • 术语解释
        • 使用限制
        • 与其他服务的关系
        • 计费说明
        • 包周期计费模式
        • 按需计费模式-卡时
        • 产品退订
        • 快速入门
        • 准备工作
        • 用户使用流程
        • 用户指南
        • 数据工具
        • 数据处理
        • 模型定制
        • 模型精调
        • 模型精调功能介绍
        • 模型精调功能使用
        • 模型开发
        • 模型开发
        • 远程登录开发机
        • 算力虚拟化
        • 训练任务
        • 断点续训
        • 模型服务
        • 服务部署
        • 模型工具
        • 模型评估
        • 模型压缩
        • 训推加速
        • CTCCL优化套件
        • CTCCL简介
        • 安装、升级与使用CTCCL库
        • CTCCL环境变量设置
        • 慢节点检测工具套件 CTCCL-Slowdetect
        • CTCCL-Slowdetect简介
        • 使用CTCCL-Slowdetect
        • CTCCL-Slowdetect最佳实践
        • 训练性能加速
        • 模型适配与性能加速
        • 断点续训加速
        • Snapckpt加速
        • 智算资产
        • 我的模型
        • 我的数据集
        • 基础数据集
        • 标注数据集
        • 我的镜像
        • 我的代码包
        • 运维观测
        • 监控大盘
        • 集群监控大盘
        • 工作空间监控大盘
        • 用量统计
        • 调度中心
        • 资源总览
        • 操作审计
        • 管理中心
        • 成员管理
        • 队列管理
        • 设置
        • 资源配额
        • 工作空间管理
        • 创建工作空间
        • 工作空间关联资源
        • 工作空间成员管理
        • 进入工作空间
        • 工作空间角色权限
        • 常见问题
        • 计费类
        • 操作类
        • 最佳实践
        • 多模态模型训练
        • 基于昇腾通用推理镜像的自定义部署
        • 基于昇腾通用推理镜像的自定义部署BGE模型
        • 专业模型训练-昇腾环境
        • 专业模型训练-英伟达环境
        • 图像分类模型训练
        • NLP大模型快速微调
        • 保密数据集最佳实践
        • 多层级资源管理最佳实践
        • API参考
        • 推理服务API
        • 如何调用API
        • 错误处理
        • 接口类型列表
        • API列表
        • API
        • Chat对话API
        • Image文本生图API
        • Embeddings文本向量化API
        • 模型列表API
        • 模型简介
        • DeepSeek-R1
        • DeepSeek-V3
        • Baichuan2-Turbo
        • Llama3-70B-Instruct
        • Qwen2.5-72B-Instruct
        • Qwen2-72B-Instruct
        • Qwen-VL-Chat
        • TeleChat-12B
        • InternLM2-Chat-7B
        • Qwen-7B-Chat
        • Chinese-Alpaca-2-13B
        • CodeLlama-34B-Instruct
        • Llama2-Chinese-13B-Chat
        • Baichuan2-7B
        • 平台OpenAPI
        • 平台功能API使用说明
        • 文档下载
        • 相关协议
        • 训推智算服务平台服务协议
        • 训推服务用户信息处理规则
          无相关产品

          本页目录

          帮助中心训推服务用户指南模型服务服务部署
          服务部署
          更新时间 2025-12-16 17:53:32
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2025-12-16 17:53:32
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          服务部署支持在推理场景将平台预置模型和模型仓库模型部署为模型在线服务。

          前置条件

          • 如果预置镜像不满足开发要求,需要基于自有镜像,需要完成镜像文件准备,详见我的镜像。

          • 如果需要使用代码包,需要完成代码包准备,详见我的代码包。

          创建在线服务

          1. 登录训推智算服务平台。

          2. 创建在线服务入口:

            • 入口一:在左侧菜单选择“模型服务”-“服务部署”,点击“部署模型”,进入在线服务创建页面。

            • 入口二:在左侧菜单选择“模型管理”,点击模型卡片的“部署”,进入在线服务创建页面。

          3. 当前模型部署支持将不同来源、不同类型的模型转化为可对外提供服务的模型应用,满足多样化的业务场景需求:

            • 我的模型:

              • 自定义配置:部署的模型来自于模型管理中用户通过开发机和训练任务生成的个性化的自有模型。选择“我的模型”列表下的目标模型文件,要求客户对自有模型的训练逻辑、 部署时的资源规格有清晰的认知,否则会直接影响部署效果。该方法只适用于单机部署,如果想使用多机部署,请选择”模板配置“。

              • 参数名说明
                服务名称必填,在线服务名称。
                模型选择选择模型管理中的“我的模型”文件,挂载到容器内路径。
                模型配置选择“自定义配置“。部署的模型来自于模型管理中用户通过开发机和训练任务生成的个性化的自有模型。
                模型文件选择自定义配置,则可选择模型管理中“我的模型”下的模型文件。
                镜像来源支持选择系统预置镜像、自定义镜像、共享容器镜像和他人分享镜像。
                代码包选择非必填,可以选择目标代码包。
                环境变量输入变量名称和值。
                运行命令必填,用以启动镜像的运行命令和端口号(例如:启动镜像的运行命令脚本。示例如下:cd /work/mount/code #切换到执行脚本所在目录。python /run.py#执行启动脚本。)
                资源配额选择目标资源配额,展示当前总资源及使用情况。
                资源规格选择当前任务所需要的资源规格。
                实例数量输入当前部署实例的数量。
                服务授权必填,选择调用服务时使用的服务授权。
              • 模板配置:平台预置了分布式部署模型模板,平台预置模板经过优化测试,部署后服务稳定性高。当前只支持DeepSeek-R1 模型的分布式部署,单实例部署机器数为2。例如,部署3个实例且每个实例需2台机器,则共需3×2=6台机器。当前的模板配置为平台预置,无法调整模板参数。如果想快速体验单机部署可以选择”预置模型”。

              • 参数名说明
                服务名称必填,在线服务名称。
                模型选择选择模型管理中的“我的模型”文件,挂载到容器内路径。
                模型配置选择“模板配置“。当前只支持DeepSeek-R1 模型的分布式部署,单实例部署机器数为2。
                模型文件选择模板配置所需要的模型文件。
                资源配额选择目标资源配额,展示当前总资源及使用情况。
                资源规格选择当前任务所需要的资源规格。
                实例数量输入当前部署实例的数量。
                服务授权必填,选择调用服务时使用的服务授权。
            • 预置模型:部署的模型来自于平台的“预置模型”,无需用户自主训练模型,操作简单。预置模型通常是通用性模型,用户无法根据自身业务需求进行优化调整,如果需要针对垂直领域进行优化调整,请选择“自定义配置”。

              • 参数名说明
                服务名称必填,在线服务名称。
                模型选择选择模型管理中的“预置模型”文件,挂载到容器内路径。
                训练框架

                根据用户选择的模型文件,会自动带出训练所用框架。

                资源规格选择当前任务所需要的资源规格。
                实例数量输入当前部署实例的数量。
                服务授权必填,选择调用服务时使用的服务授权。
          • 在列表可查看模型是否部署成功,在操作列可进行模型查看、更新、停止、重启、修改、上下线、删除等操作。停止服务后计费也会停止,再次启动服务即可开通计费。

          • 操作列点击【查看】可进入该服务的详情页,查看部署的模型列表、服务监控、配置历史、运行记录、事件日志、服务日志。

          算力虚拟化

          当开启“自定义分配”表示对资源配额内的资源虚拟化切分使用(当前仅支持在英伟达专属集群下使用)。当前平台采用显存隔离的虚拟化策略,开启后多个eGPU实例会优先调度于同一物理GPU上;算力切分策略支持算力(最低1%)与显存(最低1MB)的细粒度切分。当开启自定义分配之后,可以根据自己的任务情况输入当前需要切分的虚拟卡配置:

          • 虚拟卡数量:不可超过当前节点的物理卡总量,单张物理卡可切分的虚拟化卡数上限由显存切分的粒度决定(例如,一张128G显存的物理卡,每张虚拟卡申请16G显存,则最多可切分8张虚拟卡);可用显存总量=虚拟卡数量*单卡显存。

          • 虚拟单卡显存:每张虚拟卡的显存,大于等于1且小于等于单张物理卡显存。

          • 根据用户输入的显存值,会自动计算出虚拟卡的单卡CPU和内存推荐值:默认推荐值=单张物理卡CPU或内存*显存占比。默认展示系统推荐最佳值,谨慎修改,若修改可能会增加碎片降低算力卡使用效率。可以点击”恢复推荐值“快速返回系统推荐值。

          服务授权

          服务授权为服务部署创建App Key供用户调用。

          • 创建在线服务入口:

            • 入口一:在左侧菜单选择“服务部署”-“我的服务”-“部署模型”,新建页面点击“创建服务授权”。

            • 入口二:在左侧菜单选择“服务部署”-“授权管理”,点击“创建服务授权”,进入服务授权创建页面。

            • 入口三“在左侧菜单选择“服务部署”-“我的服务”,详情页点击“服务授权”页面中点击“创建服务授权”。

          • 创建服务授权:

            • 输入服务授权名称:必填,最长不超过15个字符。

          企业微信截图_17514221884009.png

          • 查看服务授权:在授权管理菜单还可以查看当前授权绑定的服务列表。

          企业微信截图_17514347387858.png

          • 可以单击操作列的按钮查询当前授权的明文、重置或删除。

          企业微信截图_17514348292724.png

          • 服务授权解绑和添加:在服务部署详情页,可以点击“服务授权”按钮进入当前服务绑定的授权信息列表,可以解绑不再使用的授权,绑定新的授权。

          企业微信截图_17514350316381.png

          服务调用

          • 获得服务调用接口地址

          • 在postman中构造请求接口,在请求header中需要填入Authorization鉴权信息,为避免被安全护栏拦截,建议在http请求header中填入User-Agent信息:

          请求路径:https://wishub-x5.ctyun.cn/api/v1/c760bd1e83/d1a696ae54419d34987d95d52ac337f8/v1/xxx/yyy,其中/xxx/yyy 为具体的功能路径,如/chat/completions;其余前缀通过服务详情的“接口地址”获得。
          请求方式:POST;
          请求header必填项: Authorization: Bearer AppKey Content-Type: application/json;
          其他header:
          User-Agent: PostmanRuntime-ApipostRuntime/1.1.0
          • 获得服务调用返回

          服务监控

          推理服务提供两类监控指标,一类是调用监控,展示了与业务及性能强相关的指标,例如调用tokens量、QPS等;一类是资源监控,展示了CPU、内存、显卡等相应资源的使用情况。

          调用监控

          1. 找到需要查看的任务卡片,点击【查看】进入服务详情页面,下拉页面切换到【调用监控】tab,可查看部署服务的调用情况。

          2. 选择相应的服务授权,不选则默认统计所有的服务授权。

          3. 统计说明及名词解释:

            1. 流式响应:模型边推理边输出结果(如逐词、逐句生成),用户可以实时看到部分结果;

            2. 非流式响应:模型需要完整计算所有结果后,一次性返回全部内容。

          4. 图像展示:

            1. 放大与明细:点击指标右侧“>”箭头,可展开指标大图,大图展示对图像上点的统计细项,包括最大值、最小值、平均值、中位数、75分位数;

            2. 图例:点击图例,可以对线段进行展示/隐藏;

            3. 时间轴:滑动图像下方时间轴,可以在已选定时间的基础上,查看更小范围的监控。

          5. 指标含义:

          指标

          解释

          调用次数

          一段时间内服务被调用的次数,包含调用总次数、成功次数、失败次数。

          累计调用次数

          服务启动后,服务累计被调用的次数,包含调用总次数、成功次数、失败次数。

          例如,服务于1/1日启动,2/1日统计值为1/1-2/1日时间段内的调用次数总和。

          调用失败率

          调用失败率。

          平均响应时间

          单位时间内成功请求的响应时间平均值。

          调用Token量

          一段时间内服务被调用的tokens数,包含总量、输入、输出。

          累计调用Token量

          服务启动后,服务累计被调用的tokens数,包含总量、输入、输出。

          例如,服务于1/1日启动,2/1日统计值为1/1-2/1日时间段内的调用tokens总和。

          首Token时延

          从接收请求到生成第一个输出token所需的时间,仅统计流式响应。

          AVG:首Token时延的平均值。

          MAX:首Token时延的最大值。

          P50:50%的首Token时延低于该值。

          P80:80%的首Token时延低于该值。

          P90:90%的首Token时延低于该值。

          P99:99%的首Token时延低于该值。

          非首Token时延

          生成后续每个输出token所需的时间间隔,不包括首token,仅统计流式响应。

          AVG:非首Token时延的平均值。

          MAX:非首Token时延的最大值。

          P50:50%的非首Token时延低于该值。

          P80:80%的非首Token时延低于该值。

          P90:90%的非首Token时延低于该值。

          P99:99%的非首Token时延低于该值。

          端到端时延

          服务在该时间点所有请求的端到端时延,端到端时延表示从接收到请求到返回所有Token的时间,统计流式及非流式响应。

          AVG:端到端时延的平均值。

          MAX:端到端时延的最大值。

          P50:50%的端到端时延低于该值。

          P80:80%的端到端时延低于该值。

          P90:90%的端到端时延低于该值。

          P99:99%的端到端时延低于该值。

          QPS

          Query Per Second,即每秒响应请求数。

          资源监控

          1. 找到需要查看的任务卡片,点击【查看】进入服务详情页面,下拉页面切换到【资源监控】tab,可查看部署服务的资源使用情况。

          2. 统计说明及名词解释:

            1. 作业:指运行一次任务,一次运行即一个作业;

            2. 实例:指pod实例,是Kubernetes的最小调度单元;

            3. 作业维度与实例维度:一般在部署时,一个任务作业会起多个pod实例。在实例维度,展示了不同实例的最小粒度的监控,此时可以精确到某个实例中的某一张卡;在作业维度,统计了该作业下的所有实例(Pod)或显卡的聚合值,以反映作业整体的资源使用情况,一般使用率、速率以平均值聚合,使用量以累加值聚合。

          3. 图像展示:

            1. 放大与明细:点击指标右侧“>”箭头,可展开指标大图,大图展示对图像上点的统计细项,包括最大值、最小值、平均值、中位数、75分位数;

            2. 图例:点击图例,可以对线段进行展示/隐藏;

            3. 时间轴:滑动图像下方时间轴,可以在已选定时间的基础上,查看更小范围的监控。

          4. 监控指标:

          类别指标维度解释
          CPU、内存与网络监控CPU使用率作业、实例CPU在单位时间内,CPU被任务占用使用的时间占比。
          CPU使用量作业、实例CPU 实际使用的核数。
          内存使用率作业、实例已用内存占总内存的百分比。
          内存使用量作业、实例内存实际使用量。
          普通网络吞吐作业、实例传统以太网的实际数据传输速率,即单位时间内实际传输的数据量。
          显卡基础指标GPU/NPU使用率作业、实例在单位时间内,显卡被任务占用使用的时间占比。
          GPU/NPU显存使用率作业、实例已用显存占总显存的百分比。
          GPU/NPU显存使用量作业、实例显存实际使用量。
          GPU/NPU卡温度实例显卡温度。
          GPU/NPU功耗实例显卡功耗。

          NPU卡健康状态

           

          实例

          每张卡的NPU芯片健康状态。

          取值范围:{0,1}

          1:表示在过去一段时间间隔内芯片处于健康状态;

          0:表示在过去一段时间间隔内出现了不健康状态。

           

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  模型服务
          下一篇 :  模型工具
          搜索 关闭
          ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2026天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明