活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
算力互联调度平台
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案智云上海应用生态专区
AI应用
  • 泛微合同管理解决方案
  • 泛微数智大脑Xiaoe.AI解决方案
  • MaxKB知识库解决方案
  • 天翼AI文创
AI服务
  • 昆仑AI训推服务解决方案
  • 国信模型服务解决方案
企业应用
  • 翼电子签约解决方案
  • 翼协同解决方案
  • 翼电签-契约锁解决方案
  • 翼视频云归档解决方案
教育应用
  • 翼电子教室
  • 潜在AI教育解决方案
建站工具
  • SSL证书
  • 翼定制建站解决方案
  • 翼多端小程序解决方案
办公协同
  • 天翼云企业云盘
  • 安全邮箱
灾备迁移
  • 云管家2.0
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      训推服务

      训推服务

      • 训推服务

      无数据

        • 产品动态
        • 产品介绍
        • 产品定义
        • 产品优势
        • 功能特性
        • 应用场景
        • 术语解释
        • 使用限制
        • 与其他服务的关系
        • 计费说明
        • 包周期计费模式
        • 按需计费模式-卡时
        • 产品退订
        • 快速入门
        • 准备工作
        • 用户使用流程
        • 用户指南
        • 数据工具
        • 数据处理
        • 模型定制
        • 模型精调
        • 模型精调功能介绍
        • 模型精调功能使用
        • 模型开发
        • 模型开发
        • 远程登录开发机
        • 算力虚拟化
        • 训练任务
        • 断点续训
        • 模型服务
        • 服务部署
        • 模型工具
        • 模型评估
        • 模型压缩
        • 训推加速
        • CTCCL优化套件
        • CTCCL简介
        • 安装、升级与使用CTCCL库
        • CTCCL环境变量设置
        • 慢节点检测工具套件 CTCCL-Slowdetect
        • CTCCL-Slowdetect简介
        • 使用CTCCL-Slowdetect
        • CTCCL-Slowdetect最佳实践
        • 训练性能加速
        • 模型适配与性能加速
        • 断点续训加速
        • Snapckpt加速
        • 智算资产
        • 我的模型
        • 我的数据集
        • 基础数据集
        • 标注数据集
        • 我的镜像
        • 我的代码包
        • 运维观测
        • 监控大盘
        • 集群监控大盘
        • 工作空间监控大盘
        • 用量统计
        • 调度中心
        • 资源总览
        • 操作审计
        • 管理中心
        • 成员管理
        • 队列管理
        • 设置
        • 资源配额
        • 工作空间管理
        • 创建工作空间
        • 工作空间关联资源
        • 工作空间成员管理
        • 进入工作空间
        • 工作空间角色权限
        • 常见问题
        • 计费类
        • 操作类
        • 最佳实践
        • 多模态模型训练
        • 基于昇腾通用推理镜像的自定义部署
        • 基于昇腾通用推理镜像的自定义部署BGE模型
        • 专业模型训练-昇腾环境
        • 专业模型训练-英伟达环境
        • 图像分类模型训练
        • NLP大模型快速微调
        • 保密数据集最佳实践
        • 多层级资源管理最佳实践
        • API参考
        • 推理服务API
        • 如何调用API
        • 错误处理
        • 接口类型列表
        • API列表
        • API
        • Chat对话API
        • Image文本生图API
        • Embeddings文本向量化API
        • 模型列表API
        • 模型简介
        • DeepSeek-R1
        • DeepSeek-V3
        • Baichuan2-Turbo
        • Llama3-70B-Instruct
        • Qwen2.5-72B-Instruct
        • Qwen2-72B-Instruct
        • Qwen-VL-Chat
        • TeleChat-12B
        • InternLM2-Chat-7B
        • Qwen-7B-Chat
        • Chinese-Alpaca-2-13B
        • CodeLlama-34B-Instruct
        • Llama2-Chinese-13B-Chat
        • Baichuan2-7B
        • 平台OpenAPI
        • 平台功能API使用说明
        • 文档下载
        • 相关协议
        • 训推智算服务平台服务协议
        • 训推服务用户信息处理规则
          无相关产品

          本页目录

          帮助中心训推服务用户指南模型定制训练任务
          训练任务
          更新时间 2025-11-27 10:04:13
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2025-11-27 10:04:13
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          平台的训练任务可以提供稳定和易用的训练环境,在降低训练成本的同时提升训练任务执行效率。

          前置条件

          • 完成训练数据集准备,完成存储配置准备(ZOS/HPFS),详见我的数据集。

          • 如果预置模型不满足开发要求,需要基于自有模型,需要完成模型文件准备,详见模型管理。

          • 如果预置镜像不满足开发要求,需要基于自有镜像,需要完成镜像文件准备,详见我的镜像。

          • 如果需要使用代码包,需要完成代码包准备,详见我的代码包。

          创建训练任务

          1. 登录智算服务平台。

          2. 创建训练任务入口:

            • 入口一:在左侧菜单选择“模型定制”-“训练任务”,点击“新建任务”,进入任务创建页面。

            • 入口二:在左侧菜单选择“模型定制”-“开发机”,点击开发机列表的“开始训练”。

          参数类型参数名说明

          基本信息

          任务名称

          必填,训练任务名称。

          描述

          非必填,输入128个字符的描述。

          数据集配置

          训练数据集

          最多可添加10个,选择基础数据集或者标注数据集。

          模型配置

          模型来源

          我的模型:最多5个,将模型管理中的模型文件挂载到容器内路径。

          预置模型:最多5个,将预置模型挂载到容器内路径。

          模型文件

          选择我的模型具体的模型文件及版本。

          选择预置模型文件及具体版本。

          存储配置

          ZOS对象存储

          最多选择5个,如果没有提前创建,可以点击“去创建对象存储”完成创建。

          HPFS并行文件系统

          最多选择5个,如果没有提前创建,可以点击“去创建HPFS”完成创建。

          环境配置

          文件目录

          平台可持久化的挂载目录,后续可以在该目录下读写文件,是用户间隔离的。

          训练代码

          非必填,可以选择目标代码包。

          启动命令

          必填。如果您的代码包是文件夹,则需要填写python xx.py,其中xx.py是您的训练代码;如果您的代码中有启动参数,可以直接填写;若您使用的代码包是压缩包文件,需要在启动命令中添加解压命令zip。

          资源配置

          镜像来源

          支持选择系统预置镜像、自定义镜像、共享容器镜像和他人分享镜像。

          集群

          支持公共集群和专属集群两种类型,其中专属集群需要提前购买。

          资源配额

          选择目标资源配额,展示当前总资源及使用情况。

          资源规格

          选择当前任务所需要的资源规格。

          训练模式

          默认为DDP(分布式训练),如果在单一计算设备上进行机器学习模型训练选择单机训练。

          容错训练

          启动容错训练后,如果训练过程中节点异常,系统会自动重新启用一个新的节点来替换异常节点,从上一个checkpoint开始继续训练。

          高级配置

          断点续训

          支持昇腾NPU以及英伟达系列GPU的断点续训。

          开启后,如因为节点故障导致训练任务异常,会封锁故障节点,重新调度训练任务;同时可以配置断点续训策略,支持设置【每次错误的最大重启次数】【容错重启策略】【容错策略】等参数。

          算力健康检查

          检查昇腾机器节点的显卡状态、显卡通信状态和交换机状态,以及带宽的压测值。可训练任务详情页查看具体信息。

           训练任务管理

          • 训练任务创建完成后进入“资源准备中”-“排队中”-“环境准备中”‘“开始运行”-“运行完成”,在这个过程中如果发生任务配置错误、耗时过长或者资源冲突时,可以点击“停止”和“删除”。

          • 复制任务:如果已经创建了一个训练任务可以在列表中点击“复制”,复用该任务的配置和输入参数创建一个新的训练任务。

          • 任务详情:支持查看当前训练任务的配置参数(基础信息、数据集、挂载模型、节点信息)、事件、日志(节点维度)、监控(GPU使用率、CPU使用率内存、网络IO等)、查看Tensorboard和算力检查。任务每次启动都会生成一个新的实例,这里叫做一次运行记录。一次运行记录显示了实例ID、实例最终状态、启动时间。

          设置告警

          • 配置告警发送事件:通过告警设置可以监控训练任务状态任务异常、任务断点续训和任务运行完成。默认这三类事件都不开启告警。

          • 配置告警发送方式:消息会自动发送到您天翼云账号对应的手机号和邮箱内,可前往账号中心进行设置或修改。

          后续操作

          • 保存至模型管理:将当前训练任务实例中的模型文件保存到模型仓库中统一管理,模型仓库中会新增一个来源为“训练任务”的模型。后续可以基于此模型进行开发机、训练任务和服务部署任务。

          查看训练任务监控

          1. 点击训练任务名称,进入任务详情页面,切换到监控tab,可查看训练任务的资源使用情况。

          2. 统计说明及名词解释:

            1. 作业:指运行一次任务,由于训练任务可以多次运行,此处一次运行记录即一个作业;在左侧运行记录中切换其他运行ID,可查看不同作业的监控;

            2. 实例:指pod实例,是Kubernetes的最小调度单元;

            3. 作业维度与实例维度:一般在训练时,一次训练作业会起多个Pod实例。在实例维度,展示了不同实例的最小粒度的监控,此时可以精确到某个实例中的某一张卡;在作业维度,统计了该作业下的所有实例(Pod)或显卡的聚合值,以反映作业整体的资源使用情况,一般使用率、速率以平均值聚合,使用量以累加值聚合。

            4. GPU细粒度指标:当您使用GPU卡时,可以查看GPU剖析类指标,此类指标需要您对GPU的结构有所了解。例如,GPU利用率显示了100%,不代表代码高效利用了GPU,仅能够展示有核函数在用GPU资源,但有多少个SM在使用,GPU是否真的在忙,仅看GPU利用率这一指标具有局限性。英伟达官方提供了DCGM Profiling指标,可从多个维度查看GPU的使用情况。您可以根据细粒度指标对GPU的利用情况进行剖析,优化代码逻辑,更充分的利用资源。

          3. 图像展示:

            1. 放大与明细:点击指标右侧“>”箭头,可展开指标大图,大图展示对图像上点的统计细项,包括最大值、最小值、平均值、中位数、75分位数;

            2. 图例:点击图例,可以对线段进行展示/隐藏;

            3. 时间轴:滑动图像下方时间轴,可以在已选定时间的基础上,查看更小范围的监控。

          4. 监控指标:

          类别指标维度解释
          CPU、内存与网络监控CPU使用率作业、实例CPU在单位时间内,CPU被任务占用使用的时间占比。
          CPU使用量作业、实例CPU 实际使用的核数。
          内存使用率作业、实例已用内存占总内存的百分比。
          内存使用量作业、实例内存实际使用量。
          普通网络吞吐作业、实例传统以太网的实际数据传输速率,即单位时间内实际传输的数据量。
          显卡基础指标GPU/NPU使用率作业、实例在单位时间内,显卡被任务占用使用的时间占比。
          GPU/NPU显存使用率作业、实例已用显存占总显存的百分比。
          GPU/NPU显存使用量作业、实例显存实际使用量。
          GPU/NPU卡温度实例显卡温度。
          GPU/NPU功耗实例显卡功耗。

          NPU卡健康状态

           

          实例

          每张卡的NPU芯片健康状态。

          取值范围:{0,1}

          1:表示在过去一段时间间隔内芯片处于健康状态;

          0:表示在过去一段时间间隔内出现了不健康状态。

          GPU细粒度指标GPU应用时钟频率作业、实例显卡的核心频率,指GPU运算核心的工作速度,即GPU内部各个计算单元的工作频率。它决定了显卡在单位时间内可完成的任务数量,更高的时钟频率意味着更快的计算速度和更好的性能。
          GPU显存应用时钟频率作业、实例显存频率指的是显卡所使用的显存的工作频率,显存频率影响了显卡的数据传输速度,包括图像纹理和帧缓冲区的读写速度。较高的显存频率可以提供更快的数据传输,频率越高,显存每秒传输的数据量越大。
          GPU显存带宽利用率作业、实例以英伟达GPU V100为例,其最大内存带宽为900 GB/sec,如果当前的内存带宽为450 GB/sec,则内存带宽利用率为50%。
          GPU引擎活跃情况作业、实例

          表示在一个时间间隔内,Graphics或Compute引擎处于Active的时间占比。

          Graphics或Compute引擎处于Active是指Graphics或Compute Context绑定到线程,并且Graphics或Compute Context处于Busy状态。

          该值表示所有Graphics和Compute引擎的平均值。

          GPU线程束活跃时间占比作业、实例

          表示在一个时间间隔内,至少一个线程束在一个SM(Streaming Multiprocessor)上处于Active的时间占比。

          线程束处于Active是指一个线程束被调度且分配资源后的状态,可能是在Computing、也可能是非Computing状态(例如等待内存请求)。

          该值表示所有SM的平均值,小于0.5表示未高效利用GPU,大于0.8是必要的。

          假设一个GPU有N个SM:

          一个核函数在整个时间间隔内使用N个线程块运行在所有的SM上,此时该值为1(100%)。

          一个核函数在一个时间间隔内运行N/5个线程块,此时该值为0.2。

          一个核函数使用N个线程块,在一个时间间隔内,仅运行了1/5个周期的时间,此时该值为0.2。

          GPU线程束占用率作业、实例

          表示在一个时间间隔内,驻留在SM上的线程束与该SM最大可驻留线程束的比例。

          该值表示一个时间间隔内的所有SM的平均值。

          占用率越高不代表GPU使用率越高。只有在GPU内存带宽受限的工作负载(DCGM_FI_PROF_DRAM_ACTIVE)情况下,更高的占用率表示更有效的GPU使用率。

          GPU张量通道活跃周期分数作业、实例

          表示Tensor(HMMA/IMMA) Pipe处于Active状态的周期比率。

          该值表示一个时间间隔内的平均值,较高的值表示Tensor Cores的利用率较高。

          该值为1(100%)表示在整个时间间隔内每隔一个指令周期发出一个Tensor指令(两个周期完成一条指令)。

          假设该值为0.2(20%),可能有如下情况:

          在整个时间间隔内,有20%的SM的Tensor Core以100%的利用率运行。

          在整个时间间隔内,有100%的SM的Tensor Core以20%的利用率运行。

          在整个时间间隔的1/5时间内,有100%的SM上的Tensor Core以100%利用率运行。

          其他组合模式。

          GPU显存拷贝活跃周期分数作业、实例

          表示显存带宽利用率将数据发送到设备显存或从设备显存接收数据的周期分数。

          该值表示时间间隔内的平均值,较高的值表示设备显存的利用率较高。

          该值为1(100%)表示在整个时间间隔内的每个周期执行一条 DRAM 指令(实际上,峰值约为 0.8 (80%) 是可实现的最大值)。

          假设该值为0.2(20%),表示20%的周期在时间间隔内读取或写入设备显存。

          GPU FP64通道活跃周期分数作业、实例

          注意:并非所有型号的显卡都有此数据,如A10与L40S型号不支持此精度。

          表示FP64(双精度)Pipe处于Active状态的周期分数。

          该值表示一个时间间隔内的平均值,较高的值代表FP64 Cores有较高的利用率。

          该值为 1(100%)表示在整个时间间隔内上每四个周期(以Volta类型卡为例)执行一次FP64指令。

          假设该值为0.2(20%),可能有如下情况:

          在整个时间间隔内,有20%的SM的FP64 Core以100%的利用率运行。

          在整个时间间隔内,有100%的SM的FP64 Core以20%的利用率运行。

          在整个时间间隔的1/5时间内,有100%的SM上的FP64 Core以100%利用率运行。

          其他组合模式。

          GPU FP32通道活跃周期分数作业、实例

          表示乘加操作FMA管道处于Active的周期分数,乘加操作包括FP32(单精度)和整数。

          该值表示一个时间间隔内的平均值,较高的值代表FP32 Cores有较高的利用率。

          该值为1(100%)表示在整个时间间隔内上每两个周期(Volta类型卡为例)执行一次FP32指令。

          假设该值为0.2(20%),可能有如下情况:

          在整个时间间隔内,有20%的SM的FP32 Core以100%的利用率运行。

          在整个时间间隔内,有100%的SM的FP32 Core以20%的利用率运行。

          在整个时间间隔的1/5时间内,有100%的SM上的FP32 Core以100%利用率运行。

          其他组合模式。

          GPU FP16通道活跃周期分数作业、实例

          表示FP16(半精度)管道处于Active的周期分数。

          该值表示一个时间间隔内的平均值,较高的值代表FP16 Cores有较高的利用率。

          该值为 1 (100%) 表示在整个时间间隔内上每两个周期(Volta类型卡为例)执行一次FP16指令。

          假设该值为0.2(20%),可能有如下情况:

          在整个时间间隔内,有20%的SM的FP16 Core以100%的利用率运行。

          在整个时间间隔内,有100%的SM的FP16 Core以20%的利用率运行。

          在整个时间间隔的1/5时间内,有100%的SM上的FP16 Core以100%利用率运行。

          其他组合模式。

          GPU PCIe传输数据速率作业、实例

          表示通过PCIe总线传输的数据速率,包括协议标头和数据有效负载。

          该值表示一个时间间隔内的平均值,而不是瞬时值。

          该速率在时间间隔内平均。例如,在1秒内传输1 GB数据,则无论以恒定速率还是突发传输数据,速率都是1 GB/s。理论上的最大PCIe Gen3带宽为每通道985 MB/s。

          GPU PCIe接收数据速率作业、实例

          表示通过PCIe总线接收的数据速率,包括协议标头和数据有效负载。

          该值表示一个时间间隔内的平均值,而不是瞬时值。

          该速率在时间间隔内平均。例如,在1秒内传输1 GB数据,则无论以恒定速率还是突发传输数据,速率都是1 GB/s。理论上的最大PCIe Gen3带宽为每通道985 MB/s。

          GPU NVLINK传输数据速率作业、实例

          表示通过NVLink传输的数据速率,不包括协议标头。

          该值表示一个时间间隔内的平均值,而不是瞬时值。

          该速率在时间间隔内平均。例如,在1秒内传输1 GB数据,则无论以恒定速率还是突发传输数据,速率都是1 GB/s。理论上,最大NVLink Gen2带宽为每个方向每个链路25 GB/s。

          GPU NVLINK接收数据速率作业、实例

          表示通过NVLink接收的数据速率,不包括协议标头。

          该值表示一个时间间隔内的平均值,而不是瞬时值。

          该速率在时间间隔内平均。例如,在1秒内传输1 GB数据,则无论以恒定速率还是突发传输数据,速率都是1 GB/s。理论上,最大NVLink Gen2带宽为每个方向每个链路25 GB/s。

           

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  算力虚拟化
          下一篇 :  断点续训
          搜索 关闭
          ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2026天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明