活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云图像内容审核_相关内容
      • 与其他服务关系
        本文为您介绍分布式消息服务MQTT与其他服务关系。 虚拟私有云(CTVPC ,Virtual Private Cloud) 虚拟私有云为分布式消息服务MQTT提供一个逻辑隔离的区域,构建一个安全可靠、可配置和管理的虚拟网络环境。更多信息请参见虚拟私有云。 弹性云主机(CTECS,Elastic Cloud Server) 弹性云主机由 CPU、内存、镜像、云硬盘组成,同时结合VPC、安全组、数据多副本保存等能力,打造一个既高效又可靠安全的计算环境,确保分布式消息服务MQTT持久稳定运行。更多信息请参见弹性云主机。 云硬盘(CTEVS,Elastic Volume Service) 云硬盘是一种可弹性扩展的块存储设备,可以为分布式消息服务MQTT提供高性能、高可靠的块存储服务。更多信息请参见云硬盘。 弹性IP(Elastic IP,EIP) 弹性IP是可以独立申请的公网 IP 地址,包括公网IP地址与公网出口带宽服务。可以与分布式消息服务MQTT动态绑定和解绑,实现云资源的互联网访问。针对需要公网访问分布式消息服务MQTT实例的需求,用户可开通弹性IP后,在MQTT实例页面进行绑定。更多信息请参见弹性IP。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        与其他服务关系
      • 根据备份创建新云硬盘
        本章介绍如何通过创建的备份创建新的云硬盘。 1、登录控制中心。 2、选择选择【存储 > 云硬盘备份】。 3、在云硬盘备份所在行的【操作】列下单击【创建磁盘】。 4、配置磁盘相关数据。 系统默认勾选【从备份创建】。 新磁盘容量必须大于等于备份容量。 当新磁盘容量大于原有备份容量时,增量部分需要参考云硬盘备份中的【数据盘初始化(Linux)】重新分配磁盘。 5、单击【立即申请】。 6、核对云硬盘备份信息,确认无误后勾选服务协议,单击【提交申请】。 7、返回云硬盘界面,确认创建新磁盘是否成功。 说明 通过备份创建磁盘时间相对较长,大约需要十几分钟,请您耐心等待。 磁盘状态要经过【正在创建】和【恢复数据】两个中间状态,当状态变更为【可用】时表示创建成功。 使用可启动盘的备份创建新云硬盘后,当需要对新云硬盘进行备份时,请确保新云硬盘已经被云服务器挂载过,否则备份记录中【磁盘是否可启动】仍然为【否】。
        来自:
        帮助文档
        云硬盘备份 VBS
        用户指南
        根据备份创建新云硬盘
      • 云SSO用户登录访问
        本文介绍云SSO用户或单点登录用户的登入方式 成员账号访问方式 云SSO用户有两种登入成员账号方式: 方式一:通过账号密码登录,登录地址可从“云SSO中心”“概览”页查询并复制 默认地址: 门户地址支持自定义修改:可在“云SSO中心”“管理设置”“身份源”–“门户URL”中配置子网地址。 方式二:通过身份提供商以单点登录形式登录,需要预先完成相关配置。配置方式详见“外部身份同步及单点登录配置” 系统默认使用账号密码方式登录,若您已完成单点登录配置,可在“云SSO”“管理设置”“身份源” 中,点击“身份提供商”,进行登入访问方式切换。 完成切换后,系统将关闭云SSO用户通过账号密码的登录访问方式。 会话保持设置 会话保持设置指会话最长持续时间,及在用户必须重新进行身份验证之前可以登录的最长时间 可在“云SSO”“管理设置”“会话设置”中按需配置,系统默认为8小时。
        来自:
        帮助文档
        云SSO
        用户指南
        云SSO用户登录访问
      • 同实例跨命名空间同步
        本节介绍了在同一个实例中采用手动和自动方式进行跨命名空间同步容器镜像的用户指南。 在同一个实例中,不同的开发团队限定使用着各自的命名空间,当某些镜像需要跨命名空间分享时,可以配置同步规则,实现同实例跨命名空间同步。 前置条件 使用自动或手动方式同步镜像时,请确保您使用的实例是企业版。个人版实例不支持此功能。 自动同步镜像 通过配置自动同步规则,实现在源命名空间下符合条件的镜像仓库中上传镜像后,自动触发同步操作,将镜像从源命名空间同步到目标命名空间。 注意 自动同步操作只会同步设置规则后符合条件的镜像,对于规则设置前已经存在的镜像,无法实现自动同步。 设置自动同步镜像规则步骤如下: 1. 登录容器镜像控制台。 2. 在顶部菜单栏,选择所需资源池。 3. 在实例页面中选择需要同步的实例。 4. 在企业版实例管理页面的左侧菜单上选择"分发交付" "实例同步",选择自动同步规则选项卡,点击左上角的创建同步规则。 5. 在创建同步规则对话框中,配置同步规则,然后点击确定按钮,实现规则创建。各配置参数说明如下: 参数 说明 名称 自定义同步规则的名称 描述 自定义同步规则的补充描述信息,备注信息等 同步内容 同步的内容,可选择“镜像”或“Chart” 源实例 固定为当前实例 源命名空间 选择源实例中的命名空间,此项为必填 源仓库 选择源命名空间下的镜像仓库,可为空,为空时则包含命名空间下的所有镜像仓库 源版本 选择需要同步的镜像版本,可为空,为空时则同步所有版本的镜像 同步场景 选择“同账号同步”或“跨账号同步”,由于是同实例跨命名空间同步,此处选择“同账号同步” 目标实例 选择目标实例所在的地域和实例名称,由于是同实例跨命名空间同步,此处选择当前实例 目标命名空间 选择要同步到的命名空间 覆盖 遇到同一镜像仓库下、同一版本的镜像时,是否进行覆盖,可选是或否 6. 当有新的容器镜像推送到符合上述规则的仓库中,会自动触发同步任务。 7. 在企业版实例管理页面的左侧菜单上选择"分发交付" "实例同步", 选择自动同步规则选项卡,点击对应的同步规则。在规则详情页的下方查看任务执行情况。 注意 对于同实例跨命名空间的自动同步规则设定,目标命名空间不能作为其他规则的目标命名空间和不能作为其他规则的源命名空间。例如目前有两个命名空间proj1与proj2,分别定为规则1的源命名空间与目标命名空间,当后续设定其他规则时,proj1可继续设定为源命名空间,但不能设定为目标命名空间;proj2则既不能设定为源命名空间,也不能设定为目标命名空间。
        来自:
        帮助文档
        容器镜像服务
        用户指南
        实例导入与同步
        同实例跨命名空间同步
      • 同账号跨实例同步
        本节介绍了如何在同账号内采用手动和自动的方式同步容器镜像实例的用户指南。 通过配置同步规则,可以实现同一账号下容器镜像从源实例同步至目标实例。若目标实例与源实例位于不同资源池,可以实现跨资源池的实例同步。 前置条件 使用自动或手动方式同步镜像时,请确保您使用的实例是企业版。个人版实例不支持此功能。 自动同步镜像 通过配置自动同步规则,实现在源实例下符合条件的镜像仓库中上传镜像后,自动触发同步操作,将镜像从源实例同步到同账号任意资源池下目标实例。 注意 自动同步操作只会同步设置规则后符合条件的镜像,对于规则设置前已经存在的镜像,无法实现自动同步。 设置自动同步镜像规则步骤如下: 1. 登录容器镜像控制台。 2. 在顶部菜单栏,选择所需资源池。 3. 在实例页面中选择需要同步的实例。 4. 在企业版实例管理页面的左侧菜单上选择"分发交付" "实例同步",选择自动同步规则选项卡,点击左上角的创建规则。 5. 在创建同步规则对话框中,配置同步规则,然后点击确定按钮,实现规则创建,各配置参数说明如下: 参数 说明 名称 自定义同步规则的名称 描述 自定义同步规则的补充描述信息,备注信息等 同步内容 同步的内容,可选择“镜像”或“Chart” 源实例 固定为当前实例 源命名空间 选择源实例中的命名空间,此项为必填 源仓库 选择源命名空间下的镜像仓库,可为空,为空时则包含命名空间下的所有镜像仓库 源版本 选择需要同步的镜像版本,可为空,为空时则同步所有版本的镜像 同步场景 同账号同步或跨账号同步 目标实例 选择目标实例所在的地域和实例名称 目标命名空间 选择要同步到的命名空间 覆盖 遇到同一镜像仓库下、同一版本的镜像时,是否进行覆盖,可选是或否 6. 当有新的容器镜像推送到符合上述规则的仓库中,会自动触发同步任务。 7. 在企业版实例管理页面的左侧菜单上选择"分发交付" "实例同步", 选择"自动同步规则"的选项卡,点击对应的同步规则,在规则详情页的下方查看任务执行情况。 注意 对于跨实例的自动同步规则设定,目标实例和命名空间不能作为其他规则的目标实例和命名空间,也不能作为其他规则的源实例和命名空间。例如目前有实例ins1命名空间proj1与实例ins2命名空间proj2,分别定为规则1的源信息与目标信息,当后续设定规则2或其他规则时,inst1proj1可继续设定为源信息,但不能设定为目标信息;ins2proj2则既不能设定为源信息,也不能设定为目标信息。
        来自:
        帮助文档
        容器镜像服务
        用户指南
        实例导入与同步
        同账号跨实例同步
      • 开发Shell脚本
        !/bin/bash select Actions in "begin" "end" "exit" do case $Actions in "begin") echo "start something" break ;; "end") echo "stop something" break ;; "exit") echo "exit" break ;; ) echo "Ignorant" ;; esac done 5. 在编辑器中编辑Shell语句。为了方便脚本开发,数据开发模块提供了如下能力: − 脚本编辑器支持使用如下快捷键,以提升脚本开发效率。 Ctrl + /:注释或解除注释光标所在行或代码块 Ctrl + S:保存 Ctrl + Z:撤销 Ctrl + Y:重做 Ctrl + F:查找 Ctrl + Shift + R:替换 Ctrl + X:剪切,光标未选中时剪切一行 Alt + 鼠标拖动:列模式编辑,修改一整块内容 Ctrl + 鼠标点选:多列模式编辑,多行缩进 Shift + Ctrl + K:删除当前行 Ctrl + →或Ctrl + ←:向右或向左按单词移动光标 Ctrl + Home或Ctrl + End:移至当前文件的最前或最后 Home或End:移至当前行最前或最后 Ctrl + Shift + L:鼠标双击相同的字符串后,为所有相同的字符串添加光标,实现批量修改 − 支持脚本参数功能,使用方法如下: a.在Shell语句中直接写入脚本参数名称和参数值。当Shell脚本被作业引用时,如果作业配置的参数名称与Shell脚本的参数名称相同,Shell脚本的参数值将被作业的参数值替换。 脚本示例如下: a1 echo ${a} 其中,a是参数名称,只支持英文字母、数字、“”、“”、“ ”,最大长度为16字符,且参数名称不允许重名。 b.在编辑器上方配置参数,在执行Shell脚本时,参数会向脚本传递。参数之间使用空格分隔,例如:a b c。此处的“参数”需要在Shell脚本中引用,否则配置无效。 注意 shell脚本中若引用变量请直接使用 args格式,不要使用 {args}格式,否则会导致被作业中同名参数替换。 − 支持设置脚本责任人 单击编辑器右侧的“脚本基本信息”,可设置脚本的责任人和描述信息。 6. 在编辑器上方,单击“运行”。Shell语句运行完成后,在编辑器下方可以查看脚本的执行历史和执行结果。 说明 对于执行结果支持如下操作: 重命名:可通过双击执行结果页签的名称进行重命名,也可通过右键单击执行结果页签的名称,单击重命名。重命名不能超过16个字符。 可通过右键单击执行结果页签的名称关闭当前页签、关闭左侧页签、关闭右侧页签、关闭其它页签、关闭所有页签。 7. 在编辑器上方,单击,保存脚本。 如果脚本是新建且未保存过的,请配置如下表所示的参数。 保存脚本 参数 是否必选 说明 脚本名称 是 脚本的名称,只能包含字符:英文字母、数字、中文、中划线、下划线和点号,且长度小于等于128个字符。 描述 否 脚本的描述信息。 选择目录 是 选择脚本所属的目录,默认为根目录。 说明 如果脚本未保存,重新打开脚本时,可以从本地缓存中恢复脚本内容。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        开发脚本
        开发Shell脚本
      • 查看实例状态
        操作场景 在您提交创建弹性云主机后,可以查看该弹性云主机的状态。 操作步骤 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“计算 > 弹性云主机”。 4. 在弹性云主机列表页面,找到您需要查看的弹性云主机,对应“状态”栏展示其当前状态,通常提交创建后会显示为“创建中”的中间状态,创建完成后会变为“运行中”的稳定状态。 5. 更多状态和说明可查看实例生命周期。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机实例
        查看实例
        查看实例状态
      • 功能概述
        操作 操作说明 详情链接 创建自动快照策略 创建自动快照策略,支持设置自动快照的创建时间、保留时间等信息。 云硬盘关联自动快照策略 已关联自动快照的云硬盘可以按照自动快照策略周期性创建自动快照。 云硬盘取消关联自动快照策略 取消关联自动快照的云硬盘不会再按照自动快照策略周期性创建自动快照。 启用/停用自动快照策略 设置自动快照策略状态为”启用/停用“,启用状态的自动创建策略任务。 修改自动快照策略 如果您需要修改自动快照的定时创建时间、保留时间等信息,可以编辑自动快照策略。 删除自动快照策略 如果您不再需要自动快照策略,可直接删除策略,与该策略关联的云硬盘将自动解绑。 删除自动创建的快照 系统删除有以下两种情况: 自动删除: 1) 自动快照策略设置的保留时间到期后自动释放快照。 2) 自动创建的快照数量超过云硬盘能保留的快照配额,自动释放该云硬盘最早创建的自动快照。 手动删除:手动删除指定快照。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        云硬盘自动快照
        功能概述
      • 容器集群网络规划
        本文介绍容器集群网络规划最佳实践。 在创建云容器引擎集群时,您需要指定虚拟私有云VPC、子网、Pod CIDR和Service CIDR。因此建议您提前规划Worker节点地址、Pod地址和Service地址。本文将介绍云容器引擎下的网络规划的规则与策略。 各网段说明 虚拟私有云VPC:提供一个逻辑隔离的区域,构建一个安全可靠、可配置和管理的虚拟网络环境。可创建子网、设置安全组。VPC和子网需要提前在VPC的创建界面创建好,之后创建云容器引擎集群时,为集群指定VPC和子网。Worker节点的内网IP,最终为子网下的一个IP地址。 Pod CIDR:Pod是Kubernetes层的容器资源,每个Pod都具有一个容器网络IP地址。创建云容器引擎集群时可以指定Pod CIDR。 Service CIDR:Service是Kubernetes的网络资源,每个Service具有一个IP地址。创建云容器引擎集群时可以指定Service CIDR。 约束与限制 当前云容器引擎采用Calico和Flannel两种网络插件,所涉及的三个网段:虚拟私有云VPC的网段、Pod CIDR所在网段,以及Service CIDR所在网段,不可重复。 网络规划 场景 1 : 单 VPC+ 单集群 这是最简单的场景,VPC和子网网段在创建时已明确,需要确认Pod CIDR、Service CIDR互不重叠,且和VPC不冲突即可。 场景 2 : 单 VPC+ 多集群 VPC和子网网段在创建时已确定,不同集群可根据用户自己的网络规划,放置在同一个子网或者多个子网里。 多个集群之间Pod CIDR不可以重叠,但是Service CIDR可以重叠。
        来自:
        帮助文档
        云容器引擎(旧版)
        最佳实践
        容器集群网络规划
      • 上云配置
        本文介绍了客户支持计划的上云配置。 提供量身定制的云上系统架构设计、系统架构与云产品的结合、系统的适应性改造设计、网络与系统交互规划、负载均衡与弹性伸缩的规划和云上的企业级系统解决方案等建议。
        来自:
        帮助文档
        客户支持计划
        产品简介
        服务内容
        上云配置
      • 重启实例
        此小节介绍重启实例。 出于维护目的,当云堡垒机(CBH)系统的运行异常,用户可以尝试重启实例,使其恢复到可用状态。 当CBH实例的“运行状态”为“运行”时,可执行重启操作; 重启云堡垒机实例将导致系统业务中断约5min,在此期间实例“运行状态”将显示为“正在重启”; 重启过程中,CBH系统将不可用。 前提条件 已获取管理控制台的登录帐号与密码。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择区域,选择“安全 > 云堡垒机”,进入云堡垒机实例管理页面。 3. 单击左上角的,选择区域或项目。 4. 在左侧导航树中,选择“安全 > 运维安全中心(云堡垒机)”,进入云堡垒机实例界面。 5. 在需要重启的实例所在行,单击“操作”列中的“更多 > 重启”。 6. 在弹出的重启实例对话框中,单击“确定”。 7. 重启过程一般需要5分钟左右,且实例的运行状态将会变为“正在重启”。若是升级版本和变更规格后,重启所需时间可能会更久。 说明 若重启过程中出现堡垒机实例异常,请联系工程师解决。 8. 实例状态变为“运行”,即可正常使用云堡垒机。 说明 在重启实例对话框,可选择“强制重启”,强制重启实例可能会造成数据丢失,请确保数据文件已全部保存,且云堡垒机系统无操作。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        实例
        重启实例
      • 冷热数据分离参数配置
        本页介绍天翼云TeleDB数据库冷热数据分离参数配置。 配置起实例默认生效 1. 内核使用:在配置文件postgresql.conf.user中配置sharedpreloadlibraries‘pggophermeta’ 2. 管控平台使用:在参数管理中批量配置每个节点sharedpreloadlibraries,新增参数pggophermeta 3. 配置完后需要重启实例
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        冷热数据分离
        冷热数据分离参数配置
      • 删除CFW连接
        本章节向您介绍如何删除CFW连接。 当您在企业路由器中的“云防火墙(CFW)”连接不需要使用时,无法直接删除,请您前往云防火墙控制台删除云防火墙资源。 具体操作,请参见云防火墙用户指南。 云防火墙资源删除成功后,如果企业路由器内的CFW连接仍然存在,请您联系客服提单进行处理。
        来自:
        帮助文档
        企业路由器
        用户指南
        连接
        CFW连接
        删除CFW连接
      • 常见问题
        本节介绍计算机增强型云电脑的常见问题。 普通AI云电脑和计算增强型AI云电脑实例之间是否可通过内网互相访问? 支持内网互通,但需满足三个配置条件: · AI云电脑和计算增强型AI云电脑实例必须在相同VPC内; · 安全规则放行,源/目标实例的安全组需放行访问协议; · 实例内部防火墙需允许内网网段通信(如Linux的iptables/Windows防火墙规则)。 系统默认策略中的安全组规则会对计算增强型AI云电脑生效吗? 不会生效,计算增强型AI云电脑采用独立的安全组策略,需在创建计算之前先时必须手动关联安全组。 云硬盘支持多大容量? 云硬盘容量最大支持2 TB,若您有更大的容量需求,请向您的专属客户经理申请调整云硬盘最大容量,最高支持32 TB。 实例最多支持挂载多少块云硬盘? 单台计算增强型AI云电脑最多支持挂载20块云硬盘,总容量不超过32TB。 卸载云硬盘后,会对原有数据有影响吗? 卸载操作不会删除或清空云硬盘内数据,数据仍持久化存储在云硬盘中。建议在卸载前停止所有磁盘IO操作。 计算增强型AI云电脑重装/切换系统后,原有的系统盘快照还可以使用吗? 不可以,计算增强型AI云电脑重装/切换系统,系统会重新分配一块新的系统盘,旧的系统盘释放,原有的系统盘快照不能用于回滚新系统盘。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        计算增强型AI云电脑
        常见问题
      • 免登录执行命令
        操作场景 本文介绍如何在不登录云主机或物理机实例时,执行云助手命令。 前提条件 实例状态需处于运行中 。 目标实例已安装云助手客户端,且云助手客户端状态处于运行中。 背景信息 调用API执行命令时最多可以选择100台实例。 操作步骤 1. 登录 弹性云主机控制台 或 物理机控制台 ,选择左侧导航栏中的运维工具。 2. 展开运维工具下云助手标签页,选择我的命令标签页,如下图所示: 3. 选择需要执行的指令,点击执行命令按钮。 4. 选择需要执行命令的实例,点击执行命令即可实现免登录执行命令,如下图所示:
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        运维
        云助手
        免登录执行命令
      • 升级云容灾网关
        操作场景 当云容灾网关发布新版本后,需要升级对已部署的云容灾网关进行升级操作。 升级步骤 以下操作以升级“24.6.0 ”版本的容灾网关“sdrsxxxx24.6.0.xxxx.tar.gz”为例。 1. 获取云容灾网关软件包到待部署服务器的任意目录。 跨区域和跨可用区:复制服务控制台页面提供的命令,登录待部署的云容灾网关服务器,进入任意目录,粘贴并执行命令获取软件包。 2. 在软件包所在目录下,以“root”用户,执行以下命令,解压缩软件包。 tar zxvf sdrsxxxx24.6.0.xxxx.tar.gz 3. 执行以下命令,进入升级脚本所在目录。 cd sdrsxxxx24.6.0.xxxx.tar.gz 4. 执行以下命令,升级云容灾网关软件。 sh upgrade.sh 回显中包含如下信息,说明云容灾网关升级成功: ... Upgrade SDRS successfully.
        来自:
        帮助文档
        存储容灾服务
        用户指南
        管理客户端
        升级云容灾网关
      • 与其他服务的关系
        交互功能 相关服务 位置 存储容灾服务使用弹性云主机创建存储容灾服务的保护实例。 弹性云主机 创建保护实例 存储容灾服务使用云硬盘创建异步复制的容灾盘。 云硬盘 创建保护实例 为异步复制创建云上的容灾网络。 虚拟私有云 创建站点复制对 作为生产端和容灾端的数据缓存。 对象存储服务
        来自:
        帮助文档
        存储容灾服务
        产品简介
        与其他服务的关系
      • 问题定位
        本节主要介绍问题定位 操作场景 当现网某个特定资源或动作出现问题,可根据云审计服务收集的日志记录,通过查询对应时间、对应资源的操作记录,查看当时的请求动作和响应,支撑问题定位分析。 前提条件 已开通云审计服务且追踪器状态正常。 操作步骤 以现网某个弹性云主机在某日上午发生故障后的辅助定位为例: 1. 以管理员权限登录管理控制台。 2. 单击“服务列表”,选择“管理与部署 > 云审计服务”,进入云审计服务详情页面。 3. 单击左侧导航树的“事件列表”,进入事件列表界面。 4. 在事件列表界面单击“筛选”,显示过滤条件查询框,依次选择“事件来源”>“资源类型”>“筛选类型”,单击“查询”,查看过滤结果。 过滤条件查询示例:依次选择“ecs”>“ecs”>“Resource id”>“问题虚拟机 ID ”,并在右上角时间条件设置窗口设置时间为某日上午6点到中午12点,查看过滤结果。 5. 逐条查看操作记录,注意请求的类型和响应结果,特别关注“事件级别”为warning和incident的事件,以及相应结果为失败的事件。 以现网进行创建弹性云主机操作失败报错后的辅助定位为例: 1. 以管理员权限登录管理控制台。 2. 单击“服务列表”,选择“管理与部署 > 云审计服务”,进入云审计服务详情页面。 3. 单击左侧导航树的“事件列表”,进入事件列表界面。 4. 根据创建虚拟机弹性云主机失败的操作,设置过滤条件:“ecs”>“ecs”>“事件级别”>“Warning”,在结果中查看事件名称 为“createSingleServer”操作记录事件。 5. 查看操作记录,重点关注响应中的错误提示信息,根据错误提示代码或错误提示信息进行问题定位分析。
        来自:
        帮助文档
        云审计
        用户指南
        云审计服务应用示例
        问题定位
      • 卸载云主机的数据盘
        本节介绍了卸载云主机的数据盘的操作场景、前提条件、操作步骤。 操作场景 如果创建私有镜像所使用的原云主机挂载了多个数据盘,可能导致由私有镜像创建的新云主机无法使用。因此在创建私有镜像前,需要卸载原云主机中挂载的所有数据盘。 本节介绍如何卸载云主机中挂载的所有数据盘。 前提条件 已登录到创建Linux私有镜像所使用的云主机。 操作步骤 1. 查询是否挂载数据盘。 执行以下命令,检查云主机挂载的磁盘块数。 fdisk l − 磁盘块数>1,表示云主机挂载有数据盘,执行2。 − 磁盘块数1,表示云主机未挂载数据盘,执行3。 2. 执行以下命令,检查当前云主机挂载的数据分区。 mount − 回显不包含数据盘分区的信息时,无需进行卸载数据盘的操作。 /dev/vda1 on / type ext4 (rw,relatime,dataordered) − 回显包含类似如下信息,请执行3。 /dev/vda1 on / type ext4 (rw,relatime,dataordered) /dev/vdb1 on /mnt/test type ext4 (rw,relatime,dataordered) 3. 清理“fstab”文件中的配置信息。 a. 执行以下命令编辑“fstab”文件。 vi /etc/fstab b. 删除相关数据盘在“fstab”文件中的配置信息。 “/etc/fstab”文件中记录了系统启动时自动挂载的文件系统和存储设备的信息,需要删除,如下图中最后一行是数据盘在“fstab”中的配置信息。 数据盘在fstab文件中的配置信息 4. 执行如下命令,卸载已挂载的数据盘。 卸载前请确认数据盘上没有任何数据读写,否则会导致卸载失败。 umount /dev/vdb1 5. 执行以下命令,再次查看当前云主机挂载的数据分区。 mount 回显信息中不再包含数据盘分区的信息时,则表示卸载成功。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Linux操作系统相关操作
        卸载云主机的数据盘
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 更改时区
        本文为您介绍如何更改GPU云主机的时区。 请参见弹性云主机​>管理弹性云主机​>更改时区。
        来自:
        帮助文档
        GPU云主机
        用户指南
        管理GPU云主机
        更改时区
      • 设置云主机移出规则
        参数 是否必选 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID 81f7728662dd11ec810800155d307d5b groupID 是 Integer 伸缩组ID 443 moveOutStrategy 是 Integer 实例移出策略。取值范围:1:较早创建的配置较早创建的云主机。2:较晚创建的配置较晚创建的云主机。3:较早创建的云主机。4:较晚创建的云主机。 1
        来自:
        帮助文档
        弹性伸缩服务 AS
        API参考
        API(公测中)
        伸缩组云主机
        设置云主机移出规则
      • 移入云主机
        errorCode 描述 Openapi.EcsCheck.NotFound 云主机不存在:{云主机uuid} Scaling.Instance.MoveInNotFound 未找到可迁入弹性伸缩云主机列表信息
        来自:
        帮助文档
        弹性伸缩服务 AS
        API参考
        API(公测中)
        伸缩组云主机
        移入云主机
      • 支持监控的服务列表
        本文主要介绍支持监控的服务列表 计算 分类 服务 命名空间 维度 监控指标参考文档 ::::: 计算 弹性云主机 SYS.ECS Key:instanceid Value:云主机ID 弹性云主机的基础监控指标 计算 弹性云主机中操作系统监控 AGT.ECS · Key:instanceid Value:云主机ID · Key:disk Value:磁盘 · Key:mountpoint Value:挂载点 · Key:gpu Value:GPU · Key:proc Value:进程 弹性云主机操作系统监控的监控指标(安装Agent) 计算 物理机 SERVICE.BMS Key:instanceid Value:云主机ID 物理机操作系统监控的监控指标(安装Agent) 计算 弹性伸缩 SYS.AS Key:AutoScalingGroup Value:弹性伸缩组的ID 弹性伸缩的监控指标说明 存储 分类 服务 命名空间 维度 监控指标参考文档 ::::: 存储 云硬盘(仅当挂载到云主机时) SYS.EVS Key:diskname Value:云主机实例ID盘符名(例如sda为盘符名) 云硬盘的监控指标说明 存储 对象存储服务 SYS.OBS · Key:bucketname Value:桶名 · Key:tenantid Value:租户Id · Key:apiname Value:接口 · Key:httpcode Value:HTTP返回码 · Key:domainname Value:域名 对象存储服务监控指标说明 (暂未上线,敬请期待) 存储 云服务备份 SYS.CBR Key:instanceid Value:存储库名称/ID 云服务备份监控指标说明 存储 弹性文件服务Turbo SYS.EFS Key:efsinstanceid Value:实例 弹性文件服务Turbo监控指标说明 (暂未上线,敬请期待)
        来自:
        帮助文档
        云监控服务
        用户指南
        支持监控的服务列表
      • 跨帐号迁移业务数据(迁移系统盘+数据盘)
        步骤四:创建新的云主机 1、帐号B使用共享镜像创建新的云主机(该云主机由整机镜像创建),并验证业务数据是否迁移成功。 说明: 选择整机镜像切换云主机操作系统时,仅能恢复整机镜像的系统盘数据。因此,请勿选择已有弹性云主机执行切换OS操作。请通过整机镜像创建新的云主机,迁移整机镜像中的数据盘数据、系统盘数据。 在共享镜像“fullimageecstest”所在行,单击操作列的“申请主机”。 进入弹性云主机购买页面。 2、选择计费模式、实例规格规格等参数,并单击“立即购买”。注意: 区域:必须和接受共享镜像的区域一致; 镜像:选择“共享镜像 > fullimageecstest(整机镜像)”。 3、返回云主机列表,等待几分钟,云主机创建成功。 4、登录云主机,验证数据是否迁移成功。 查看系统盘,显示文件“system disk.txt”,再查看数据盘,显示文件“data disk.txt”,数据迁移成功。 图 查看系统盘数据 图 查询数据盘数据
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        跨帐号迁移业务数据(迁移系统盘+数据盘)
      • 通过IAM进行权限控制
        统一身份认证(Identity and Access Management,简称IAM)服务,是提供用户进行权限管理的基础服务,帮助您安全的控制 HPFS 服务的访问及操作权限,实现对HPFS的访问控制。 基本概念 并行文件服务HPFS已对接云平台统一身份认证(IAM),支持通过IAM对HPFS的资源进行访问控制管理。 使用前您需了解常用的基本概念,包括:帐号、IAM用户、用户组、身份凭证、授权、权限、项目、委托、身份凭证。详细请查看:术语解释 IAM的相关文档请查看:统一身份认证(一类节点)。 IAM应用场景 IAM策略主要面向对同租户帐号下,对不同IAM用户授权的场景: 您可以为不同操作人员或应用程序创建不同IAM用户,并授予IAM用户刚好能完成工作所需的权限,比如HPFS的查看权限,进行最小粒度授权管理。 新创建的IAM用户可以使用自己的用户名和密码登录云服务平台,实现多用户协同操作时无需分享帐号的密码的安全要求。 操作步骤 创建IAM用户并授权使用HPFS,示例流程 1. 登录天翼云控制台,在右上角点击头像选择“账号中心”,在左侧导航中选择“统一身份认证”,或者直接点击IAM控制台。 2. 在IAM里,左侧导航中点击“用户组”,点击右上角的“创建用户组”。 3. 在“创建用户组”界面,输入用户组名称和描述,单击“确定”,完成用户组创建。用户组是用户的集合,IAM通过用户组功能实现用户的授权。 4. 您需要新建用户或将已创建的用户,加入刚建好的用户组里。在左侧导航窗格中,点击“用户”,点击右上角“创建用户”。 5. 在用户组列表中,单击新建的用户组右侧“查看”,可以检查是否已将用户添加到组中,确认符合预期后,点击“授权”。 6. 选择策略,在右上角“请输入策略名称进行搜索”框内输入“并行”进行搜索,勾选需要授予用户组的资源池级策略,单击“下一步”。并行文件的管理者可以对资源进行创建、扩容、删除等所有操作,并行文件查看者只支持查看资源列表、详情。如您需要更细粒度的权限设置,可通过创建自定义策略来进行授权管理。 7. 由于并行文件在创建资源的是否,需要选择企业项目,所以还需要将用户也添加到企业项目并授权对应权限。在左侧导航窗格中,点击“企业项目”,选择指定的企业项目一般为default,点击右侧“查看用户组”。 8. 在用户组tab页,点击“设置用户组”,然后选择刚创建的用户组。 9. 在加入的用户组右侧操作里,点击“设置策略”,并选择并行文件的对应策略。 10. 完成以上操作后,主账号需要将创建IAM用户时输入的邮箱及密码告知对应的员工,这些员工就可以使用邮箱和密码登录天翼云。如果登录失败,IAM用户可以联系管理员重置密码。对应员工使用IAM用户登录HPFS管理控制台,验证用户权限。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        权限控制
        通过IAM进行权限控制
      • 状态码
        内部系统间访问结果码(大驼峰格式) error http status code description message Disaster.RegionInfo.AccessFailed 200 查询资源池失败 querying region failed Disaster.RegionInfo.Empty 200 资源池信息为空 region info empty Disaster.RegionInfo.DataDamaged 200 资源池信息不符预期 region info data damaged Disaster.UserPermission.AccessFailed 200 查询用户权限失败 querying user permission failed Disaster.UserPermission.Empty 200 用户权限信息为空 user permission empty Disaster.UserPermission.DataDamaged 200 用户权限信息不符预期 user permission data damaged Disaster.UserDetail.AccessFailed 200 查询用户详情失败 querying user detail failed Disaster.UserDetail.Empty 200 用户详情信息为空 user detail info empty Disaster.UserDetail.DataDamaged 200 用户详情信息不符预期 user detail info damaged Disaster.UserQuota.AccessFailed 200 查询用户配额失败 querying user quota info failed Disaster.UserQuota.Empty 200 用户配额信息为空 user quota info empty Disaster.UserQuota.DataDamaged 200 用户配额信息不符预期 user qutoa info damaged Disaster.ResourceInfo.AccessFailed 200 查询资源失败 querying resource info failed Disaster.ResourceInfo.NotExists 200 资源信息不存在 resource info not exists Disaster.ResourceInfo.DataDamaged 200 资源信息不符预期 resource info damaged Disaster.ResourceOrderInfo.AccessFailed 200 查询资源订单信息失败 querying resource order info failed Disaster.ResourceOrderInfo.NotExists 200 资源订单信息不存在 resource order info not exists Disaster.ResourceOrderInfo.DataDamaged 200 资源订单信息不符预期 resource order info damaged Disaster.UserConsumption.AccessFailed 200 查询用户已用资源量失败 querying user consumption failed Disaster.UserConsumption.Empty 200 用户已用资源信息为空 user consumption info empty Disaster.UserConsumption.DataDamaged 200 用户已用资源信息不符预期 user consumption info damaged Disaster.UserResources.AccessFailed 200 查询用户资源信息失败 querying user resources failed Disaster.UserResources.DataDamaged 200 用户资源信息不符预期 user resources info damaged Disaster.UserVisibleRegions.AccessFailed 200 查询用户可见资源池失败 querying user visible regions failed Disaster.UserVisibleRegions.DataDamaged 200 用户可见资源池信息不符预期 user visible regions info damaged Disaster.Common.ServiceStatusError 200 云容灾服务状态异常 disaster service error Disaster.Common.PairAccessError 200 云容灾保护组信息获取异常 disaster pair info access failed Disaster.DisasterPairCreateProcor.InvalidCreate 200 创建云容灾保护组失败 Create invalid Disaster.DisasterPairParamFilter.InvalidName 200 只能由英文、数字和特殊字符 ,且只能以英文开头,以英文或数字结尾,长度为 260 字 name invalid Disaster.DisasterPairUpdateProcor.InvalidCreate 200 更新云容灾保护组失败 update invalid Disaster.DisasterProtectionEcsChecker.ProtectionEcsError 200 云容灾保护云主机获取异常 query disaster protection ecs failed Disaster.ProtectionAvailableEcsChecker.AvailableEcsError 200 保护组可添加的云主机异常 failed to query ecs that can be added to the protection pair Disaster.DisasterPairDeleteProcor.InvalidDelete 200 删除云容灾保护组失败 delete invalid Disaster.DisasterEcsAddProcor.InvalidAdd 200 添加受保护云主机失败 Add invalid Disaster.DisasterEcsRefundProcor.InvalidRefund 200 注销受保护云主机失败 Refund invalid Disaster.DisasterEcsExistChecker.InvalidEcs 200 云主机不存在于保护组 Ecs invalid Disaster.DisasterEcsStatesChecker.InvalidEcs 200 云主机状态异常 Ecs State invalid Disaster.DisasterReplicationActionProcor.InvalidReplication 200 启动复制异常 Start Replication invalid Disaster.DisasterReplicationActionProcor.InvalidAction 200 操作异常 Replication Action invalid Disaster.DisasterFailoverDrillProcor.DrillAction 200 容灾演练异常 Failover drill invalid Disaster.DisasterFailoverDrillProcor.DrillAction 200 容灾演练状态异常 Failover drill state error Disaster.DisasterRestorePointProcor.RestorePointError 200 云容灾恢复点信息获取异常 disaster restore point info access failed Disaster.DisasterFailoverCleareProcor.CleareAction 200 清空容灾演练异常 Failover cleare invalid Disaster.DisasterFailoverProcor.FailoverAction 200 故障切换异常 Failover invalid Disaster.DisasterRestoreReplaceProcor.ReplaceAction 200 更换异常 Replace invalid Disaster.DisasterConfirmFailoverProcor.ConfirmAction 200 确认异常 confirm invalid Disaster.DisasterProtectionTaskProcor.ProtectionTaskError 200 云容灾保护组任务获取异常 query disaster protection task failed Disaster.DisasterNetworkFlowProcor.FlowError 200 云容灾网络获取异常 query disaster network flow failed Disaster.DisasterAvailableEcsProcor.EcsError 200 云容灾可保护云主机获取异常 query disaster available ecs error
        来自:
        帮助文档
        云容灾 CDR
        API参考
        调用前须知
        状态码
      • 解决Linux云主机磁盘空间不足的问题
        资源规划 本实践以操作系统为“CentOS 7.6 64bit”的云主机为例,处理Linux云主机实例磁盘空间不足的方法,需要您提前做好资源规划,具体资源如下: 资源 资源说明 数量 详情链接 弹性云主机 操作系统“CentOS 7.6 64bit” 1个 弹性云主机计费 弹性IP 弹性云主机需要绑定弹性IP来下载安装包 1个 弹性IP计费 资源创建 创建操作系统镜像为“CentOS 7.6 64bit”的弹性云主机,具体操作请参见创建弹性云主机。 创建弹性IP并将其绑定至已创建的弹性云主机,具体操作请参见购买弹性IP以及绑定云主机实例。 操作步骤 本文中将分别针对导致磁盘空间不足的三个原因,即“磁盘分区空间使用率高达100% ”、“僵尸文件冗余”、“磁盘分区索引节点Inode使用率高达100%”,来分别给出对应的处理方式。 清理占用空间较大的文件及目录 当磁盘分区空间使用率高达100%时,用户可通过清理占用空间较大的文件及目录来达到清理空间的目的。 以下操作步骤中云主机的操作系统为“CentOS 7.6 64bit”,回显仅供参考。 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“计算>弹性云主机”,进入弹性云主机页面。 4. 单击待操作的弹性云主机所在行的“操作>远程登录”。 5. 以root用户身份登入云主机,登录之后如图: 6. 首先执行命令 df h,来查看当前云主机的磁盘使用率。 7. 用户可以根据“Use%”这一列来确定使用率,从此图中可以看出使用率最高的是/dev/vda1,使用率为4%。 8. 用户进入根目录并执行命令 du sh 查看哪个文件占用磁盘空间比较大,具体操作及回显信息如下图: 9. 从此图中可以看到/usr目录占据磁盘空间较大。接下来进入到/usr目录查看哪个目录或文件占据空间最大,执行命令 du sh 及回显信息如下图所示: 从图中可以看到当前/usr路径中/usr/lib占据空间最大,以此类推,最终根据业务和实际需求来判断是否需要删除相应文件,可以删除不再使用的文件及目录。
        来自:
        帮助文档
        云硬盘 EVS
        最佳实践
        解决Linux云主机磁盘空间不足的问题
      • 视图水印
        途径 说明 【媒体库】入口 使用云点播控制台操作。 云点播截图、转码API/SDK 调用云点播API打水印。
        来自:
        帮助文档
        云点播
        用户指南
        点播模式
        视图水印
      • 安装LVM
        本实践将为您介绍如何安装LVM。 操作场景 默认情况下,弹性云主机系统中并没有安装LVM,因此需要您手工安装。本章节将帮助您查询您的弹性云主机是否安装了LVM以及如何去安装LVM。 本文以云主机的操作系统为“CentOS 7.5 64位”为例,不同云主机的操作系统的格式化操作可能不同,本文仅供参考。 操作步骤 以下操作步骤中云主机的操作系统为“CentOS 7.6 64bit”,回显仅供参考。 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“计算>弹性云主机”,进入弹性云主机页面。 4. 单击待操作的弹性云主机所在行的“操作>远程登录”。 5. 以root用户身份登入云主机,登录之后如图: 6. 安装LVM管理工具的第一步首先是确认当前主机中是否已经安装过LVM管理工具,您可以执行命令:rpm qa grep lvm2,回显如图: 这样的回显表示当前主机中并未安装LVM管理工具。默认情况下,弹性云主机的LVM管理工具都是未安装状态。 7. 在未安装状态下执行命令 yum install lvm2,使用yum安装LVM管理工具,并根据提示信息完成安装。回显如下: 当出现“Complete!”时就说明已经安装成功。 8. 接下来可以再次执行命令 rpm qa grep lvm2来查验此云主机中是否已经安装成功LVM管理工具,具体回显信息如下,说明已经成功安装。
        来自:
        帮助文档
        云硬盘 EVS
        最佳实践
        使用LVM管理云硬盘
        实施步骤
        安装LVM
      • 在移动设备上登录Linux云主机
        本节介绍了在移动设备上登录Linux云主机的操作场景、前提条件、IOS设备上登录Linux云主机、Android设备上登录Linux云主机。 操作场景 本节操作介绍如何在移动设备上连接Linux实例。 以iTerminalSSH Telnet为例介绍如何在iOS设备上连接 Linux 实例,详细操作请参考IOS设备上登录Linux云主机。 以JuiceSSH为例介绍如何在Android设备上连接 Linux 实例,详细操作请参考Android设备上登录Linux云主机。 前提条件 云主机状态为“运行中”。 已获取Linux云主机用户名和密码。 弹性云主机已经绑定弹性IP,绑定方式请参见绑定弹性公网IP。 所在安全组入方向已开放22端口,配置方式请参见配置安全组规则。 IOS设备上登录Linux云主机 如果您使用iOS设备,请确保已经安装了SSH客户端工具,我们以Termius为例。本示例中使用CentOS 7.6操作系统,使用用户名和密码进行认证。 1. 启动Termius,单击New Host。 图 New Host 2. 在SSH页面上,输入连接信息后,单击 Save。需要输入的连接信息包括: − Alias:指定Host名称,如本例中,设置为ecs01。 − Hostname:输入需要连接的 Linux 实例的公网IP地址。 − Use SSH:打开SSH登录配置。 − Host:输入需要连接的Linux实例的公网IP地址。 − Port:输入端口号22。 − 用户名:输入用户名root。 − 密码:输入实例登录密码。 图 输入连接信息 3. 单击右上角的“Save”,保存登录信息,在Hosts页面,单击连接的名称远程连接服务器。 图 保存登录信息 当出现命令行界面时,您已经成功地连接了Linux云主机。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        登录Linux弹性云主机
        在移动设备上登录Linux云主机
      • 恢复类
        本文汇总了云备份的恢复类常见问题。 使用备份恢复数据时,需要停止云主机吗? 使用备份恢复数据时不需要停止云主机。 但是不建议对正在运行的应用程序的文件进行恢复,建议停止应用程序运行后再执行恢复操作。 恢复时可以终止恢复吗? 可以。 创建恢复任务后,可以在恢复任务列表取消正在进行的恢复任务,具体操作请参见取消恢复任务。 注意 恢复任务终止后,无法恢复,请谨慎操作。终止恢复任务后,如果需要恢复请创建一条新的恢复任务。 云备份支持从任意一个备份恢复数据吗? 云备份支持从任意一个备份恢复云主机所备份目录/文件的全量数据。 举例:云主机X按时间顺序先后生成A、B、C三个备份,每个备份都存在数据更新。您可以使用任意一个备份将数据恢复至备份时间点。 支持异机恢复吗? 支持。流程如下: 1. 在“ECS文件备份”页签选择“恢复任务”。 2. 单击“创建恢复任务”,选择一个待恢复的副本。 3. 在“恢复到指定目录”选项中,选择恢复至其他云主机的目录即可。 具体操作请参见创建恢复任务。 弹性云主机产生变更后,能否使用历史备份恢复数据? 场景1:弹性云主机添加或者卸载了云硬盘,不影响备份恢复,您仍能够正常使用历史备份进行数据恢复。 场景2:弹性云主机重装了操作系统,此时,云主机将会丢失备份客户端,无法进行恢复操作。您需要重新安装备份客户端执行后续的备份和恢复操作。
        来自:
        帮助文档
        云备份 CBR
        常见问题
        恢复类
      • 1
      • ...
      • 262
      • 263
      • 264
      • 265
      • 266
      • ...
      • 559
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      推荐文档

      PostgreSQL

      重置操作系统

      如何退换发票?

      云安备信息查看

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号