PyTorch 分布式训练任务 点击左侧【工作负载】->【自定义资源】,选择资源浏览器,找到kubeflow.org/v1/PyTorchJob ,选择命名空间,点击新增。在创建yaml中,填入以下信息后点击【创建】。注意1.GPU和升腾NPU申请资源类型不一样,请使用对应的模板;2.修改对应的镜像仓库地址前缀为对应资源池,可在容器镜像控制台查看,如武汉41,则修改{image_repo}为registry-vpc-crs-wuhan41.ctyun.cn;3. namespace: 要和界面选择的一致。