云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云平台_相关内容
      • 概念类问题
        对比维度 云主机备份 镜像服务 概念 备份是将云主机或者云硬盘某一时间节点的状态、配置和数据信息保存下来,以供故障时进行恢复,其目的是为了保证数据安全,提升高可用性。 镜像相当于云服务器的“装机盘”,它提供了启动云服务器所需的所有信息,其目的是为了创建云服务器,批量部署软件环境。系统盘镜像包含运行业务所需的操作系统、应用软件,数据盘包含业务数据。整机镜像是系统盘镜像和数据盘镜像的总和。 使用方式 数据存储位置:与服务器/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建备份的云硬盘删除,对应的备份不会被同时删除。 操作对象:保存云服务器/磁盘指定时刻的数据,可以设置自动备份和过期自动删除。 用途:备份可以恢复数据至原服务器/磁盘中,也可以直接创建新的磁盘或整机镜像。 是否可以导出至本地:否。 数据存储位置:与服务器/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建镜像的服务器/磁盘删除,对应的镜像不会被同时删除。 操作对象:可以将服务器的系统盘和数据盘制作为私有镜像,也可以通过外部镜像文件制作私有镜像。 用途:系统盘镜像或整机镜像可以创建新的服务器,数据盘镜像可以创建新的磁盘,实现业务迁移。 应用场景 数据备份和恢复 服务器上云或云上迁移 部署特定软件环境 批量部署软件环境 服务器运行环境备份 优势 支持自动备份,可以定时定量保留服务器/磁盘某一时间节点的数据 可以备份系统盘。可以将本地或者其他云平台的服务器数据盘镜像文件导入至镜像服务中。导入后,可使用该镜像创建新的云硬盘。
        来自:
        帮助文档
        云主机备份 CSBS
        常见问题
        概念类问题
      • 镜像和备份有什么区别?
        对比维度 云服务备份 镜像服务 概念 备份是将云主机或者云硬盘某一时间节点的状态、配置和数据信息保存下来,以供故障时进行恢复,其目的是为了保证数据安全,提升高可用性。 镜像相当于云主机的“装机盘”,它提供了启动云主机所需的所有信息,其目的是为了创建云主机,批量部署软件环境。系统盘镜像包含运行业务所需的操作系统、应用软件,数据盘包含业务数据。整机镜像是系统盘镜像和数据盘镜像的总和。 使用方式 数据存储位置:与主机/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建备份的云硬盘删除,对应的备份不会被同时删除。 操作对象:保存云主机/磁盘指定时刻的数据,可以设置自动备份和过期自动删除。 用途:备份可以恢复数据至原主机/磁盘中,也可以直接创建新的磁盘或整机镜像。 是否可以导出至本地:否。 数据存储位置:与主机/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建镜像的主机/磁盘删除,对应的镜像不会被同时删除。 操作对象:可以将主机的系统盘和数据盘制作为私有镜像,也可以通过外部镜像文件制作私有镜像。 用途:系统盘镜像或整机镜像可以创建新的主机,数据盘镜像可以创建新的磁盘,实现业务迁移。 是否可以导出至本地:部分可以,整机镜像不支持导出至本地,详见 应用场景 适用场景: 数据备份与恢复 业务快速部署和迁移 适用场景: 服务器上云或云上迁移 部署特定软件环境 批量部署软件环境 服务器运行环境备份 优势 支持自动备份,可以定时定量保留服务器/磁盘某一时间节点的数据。 可以备份系统盘。可以将本地或者其他云平台的服务器数据盘镜像文件导入至镜像服务中。导入后,可使用该镜像创建新的云硬盘。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像咨询
        镜像和备份有什么区别?
      • 安装QEMU-Guest-Agent
        本文档为制作Linux系统私有镜像指导手册的步骤4,安装QEMUGuestAgent。 操作场景 QEMUGuestAgent(简称qga),是天翼云平台弹性云主机执行关键功能的依赖工具。包括: 云主机重置密码 创建云主机快照 安装QEMUGuestAgent 如果您已经参考步骤2完整安装了全量软件,则可以直接配置cloudinit。 如果您未安装cloudinit,请执行以下命令完成安装。 说明 以下命令均可直接全量复制到命令行执行。 Red Hat系列Linux操作系统使用如下命令 plaintext yum install y qemuguestagent Debian系列Linux操作系统使用如下命令 plaintext apt install y qemuguestagent 配置QEMUGuestAgent 1. 通过执行以下shell命令,完成对qemuga和qemuguestagent.service配置文件的修改。 plaintext 若 /etc/sysconfig/qemuga 文件存在,则确认 BLACKLISTRPC、FILTERRPCARGS 所在行已被注释。 qemugaconfig'/etc/sysconfig/qemuga' if [ f "$qemugaconfig" ]; then [ ! f "${qemugaconfig}.bak" ] && cp "$qemugaconfig" "${qemugaconfig}.bak" sed i '/^[[:space:]]BLACKLISTRPC/ s/^/ /' "$qemugaconfig" sed i '/^[[:space:]]FILTERRPCARGS/ s/^/ /' "$qemugaconfig" fi 自定义 qemuguestagent 服务配置。 if [ f '/lib/systemd/system/qemuguestagent.service' ] [ f '/usr/lib/systemd/system/qemuguestagent.service' ]; then qemugaservicedropindir'/etc/systemd/system/qemuguestagent.service.d/' mkdir p "$qemugaservicedropindir" cat <<'EOT' >"${qemugaservicedropindir}zzctims.conf" [Install] WantedBydevvirtiox2dportsorg.qemu.guestagent.0.device EOT systemctl daemonreload fi 2. 配置服务。 plaintext systemctl enable qemuguestagent 3. 检查服务状态。 plaintext systemctl status qemuguestagent
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        私有镜像
        创建私有镜像
        制作Linux系统盘镜像文件
        安装QEMU-Guest-Agent
      • 注册配置中心
        本章节介绍注册配置中心RCC子产品的产品规格 MSE注册配置中心提供了Nacos、Zookeeper 两种引擎的实例供您选用。不同引擎可选择的具体规格参数有差别,典型版本的规格详情和预估的处理能力详见下述列表,您可以参考下述表格来选择开通适合您业务的注册配置中心。 说明 1. 实例的规格系列分为单机版、集群版和企业版,暂不支持从单机版升级到集群版或者从升级机版、集群版到企业版; 2. 单机版只提供单节点,不具备高可用性,不适用于生产环境也不支持规格升降配操作,无法切换到集群版本,请提前评估。 实例类型 企业版(Nacos 引擎) 完全兼容Nacos3.1开源能力,支持MCP服务注册和管理。 默认3节点集群,可选择多可用区部署,提供高可用能力。 实例安全加固,提供完备的可观测能力和自动化运维服务。 适用于对安全、高可用和性能有高要求的所有环境(开发、测试、生产)。 集群版 深度兼容开源能力,支持高可用,提供安全、可观测能力及自动化运维服务。 默认3节点,适用于开发、测试、生产环境。 单机版 兼容开源能力,提供默认可观测能力和自动化运维服务。 只提供单节点,适用于开发、测试环境。 实例能力 Nacos 微服务注册中心Nacos引擎包括配置中心和注册中心,提供动态配置、服务发现和服务健康监测等简单易用的特性,经过实践检验具备高性能和高可用性,帮助用户管理配置、注册和发现微服务,更加快捷方便地构建、交付和管理微服务平台。 Nacos 企业版支持MCP服务标准化与可视化管理和存量 HTTP 服务一键转换,快速对接 MCP 生态,适配微服务架构升级需求。通过底层核心资源独享提供更高规格的配额能力,相对于开源提供更强的性能和更高的可用性。
        来自:
        帮助文档
        微服务引擎
        产品简介
        产品规格
        注册配置中心
      • 注册配置中心(1)
        本章节介绍注册配置中心RCC子产品的产品规格 MSE注册配置中心提供了Nacos、Zookeeper 两种引擎的实例供您选用。不同引擎可选择的具体规格参数有差别,典型版本的规格详情和预估的处理能力详见下述列表,您可以参考下述表格来选择开通适合您业务的注册配置中心。 说明 1. 实例的规格系列分为单机版、集群版和企业版,暂不支持从单机版升级到集群版或者从升级机版、集群版到企业版; 2. 单机版只提供单节点,不具备高可用性,不适用于生产环境也不支持规格升降配操作,无法切换到集群版本,请提前评估。 实例类型 企业版(Nacos 引擎) 完全兼容Nacos3.1开源能力,支持MCP服务注册和管理。 默认3节点集群,可选择多可用区部署,提供高可用能力。 实例安全加固,提供完备的可观测能力和自动化运维服务。 适用于对安全、高可用和性能有高要求的所有环境(开发、测试、生产)。 集群版 深度兼容开源能力,支持高可用,提供安全、可观测能力及自动化运维服务。 默认3节点,适用于开发、测试、生产环境。 单机版 兼容开源能力,提供默认可观测能力和自动化运维服务。 只提供单节点,适用于开发、测试环境。 实例能力 Nacos 微服务注册中心Nacos引擎包括配置中心和注册中心,提供动态配置、服务发现和服务健康监测等简单易用的特性,经过实践检验具备高性能和高可用性,帮助用户管理配置、注册和发现微服务,更加快捷方便地构建、交付和管理微服务平台。 Nacos 企业版支持MCP服务标准化与可视化管理和存量 HTTP 服务一键转换,快速对接 MCP 生态,适配微服务架构升级需求。通过底层核心资源独享提供更高规格的配额能力,相对于开源提供更强的性能和更高的可用性。
        来自:
      • 创建克隆卷
        项目 描述 快照名称 克隆卷关联的快照名称。 克隆卷名称 设置克隆卷名称。 取值:字符串形式,长度范围是1~16,只能由字母、数字和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 iSCSI目标 设置克隆卷关联的iSCSI目标名称,可以跟源卷的iSCSI目标不同。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 创建卷时可以选择已经存在的iSCSI目标;也可以输入新的iSCSI目标名称,在创建卷的同时创建新的iSCSI目标,新创建的iSCSI目标的回收策略默认为删除。 缓存存储池 指定缓存存储池(仅集群版支持)。默认值与源卷的配置一致。 注意 存储池与缓存存储池不能设置为同一个存储池。 当克隆卷的存储池和缓存存储池配置与源卷一致,无需额外设置。若单独设置了克隆卷的存储池或缓存存储池,则不再沿用源卷的存储池和缓存存储池,而是采用所设参数值。例如,源卷同时有存储池和缓存存储池,若克隆卷仅重新设置了存储池而未设置缓存存储池,则克隆卷使用新存储池,无缓存存储池;反之,若克隆卷设置了缓存存储池,则必须同时设置存储池,或使用基础存储池作为存储池。 存储池 指定克隆卷的存储池(仅集群版支持)。默认值与源卷的配置一致。 注意 存储池与缓存存储池不能设置为同一个存储池。 当克隆卷的存储池和缓存存储池配置与源卷一致,无需额外设置。若单独设置了克隆卷的存储池或缓存存储池,则不再沿用源卷的存储池和缓存存储池,而是采用所设参数值。例如,源卷同时有存储池和缓存存储池,若克隆卷仅重新设置了存储池而未设置缓存存储池,则克隆卷使用新存储池,无缓存存储池;反之,若克隆卷设置了缓存存储池,则必须同时设置存储池,或使用基础存储池作为存储池。 卷冗余模式 克隆卷的冗余模式(仅集群版支持): 取值: 副本: 单副本。 两副本。 三副本。 EC N + M :纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。分片大小可以为1 KiB、2 KiB、4 KiB、8 KiB、16 KiB、32 KiB、64 KiB、128 KiB、256 KiB、512 KiB、1024 KiB、2048 KiB、4096 KiB。 默认值为源卷的卷冗余模式。 说明 以下场景均为集群可用的前提下: 创建EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 创建副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 最小副本数 克隆卷的最小副本数(仅集群版支持)。点击“卷冗余模式”后的“更多”按钮,可以填写最小副本数。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。 对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数;对于EC卷,取值范围是[N, N+M]。若未设置克隆卷的最小副本数,默认值为源卷的最小副本数。 折叠副本数 克隆卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域为path,此参数不生效。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数;EC卷,取值范围是[1, N+M]。若未设置克隆卷的折叠副本数,默认值为源卷的折叠副本数。 容量 克隆卷的容量。整数形式,数字后面可以选择单位(GiB、TiB、PiB)。 默认为快照时刻的源卷容量,如果重新设置,则必须大于等于快照时刻的源卷的容量。 扇区大小 克隆卷的磁盘扇区大小。 取值:512 Bytes、4 KiB。默认值为源卷的扇区大小。 说明 扇区大小的选取:根据自身业务场景,一般情况下,单次I/O操作的数据大小大于或接近4 KiB,则推荐选择4 KiB;单次I/O操作的数据大小接近512 Bytes,则推荐选择512 Bytes。如果对接VMware等虚拟化平台,则推荐选择512 Bytes。 高可用 克隆卷的高可用类型(仅集群版支持): 主备:该卷关联对应Target下的所有IQN。 禁用:不启用主备,该卷关联对应Target下的1个IQN。 默认值为源卷的高可用类型。 写策略 克隆卷的写策略: 回写:指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 透写:指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 绕写:指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认为源卷的写策略。 数据目录 克隆卷的数据的存储位置(仅单机版支持)。 如果创建克隆卷时不指定数据目录,默认与源卷配置保持一致。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        卷操作
        创建克隆卷
      • 创建VPC、子网搭建私有网络
        虚拟私有云支持创建VPC、子网搭建私有网络,本文帮助您了解创建VPC、子网搭建私有网络操作流程。 前提条件 注册天翼云账号。 操作步骤 创建VPC步骤 1. 登录控制中心; 2. 在控制中心找到【网络控制台】,单击【虚拟私有云】; 3. 在【虚拟私有云列表】界面,单击【创建虚拟私有云】,打开创建建虚拟私有云详情页; 4. 在【申请虚拟私有云】页面,根据界面提示配置参数。 参数名称 是否必填 含义 例子 VPC基本信息 地域 是 当前资源创建的region名称 上海上海36 名称 是 VPC的名称 VPC1 VPC网段(IPv4) 是 虚拟私有云VPC的IPv4网段范围 192.168.0.0/16 VPC网段(IPv6) 否 是否分配虚拟私有云VPC的IPv6地址,仅部分可用区资源池支持为VPC开启IPv6,不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 开启 IPv6地址类型 是 开启IPv6的情况下,显示此选项,默认仅支持中国电信单线 中国电信单线 VPC IPv6地址段 是 开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 自动分配 企业项目 是 当前VPC所属的企业项目 default VPC描述 否 自定义的VPC描述文案 用于政务网的VPC 子网配置 子网类型 是 普通子网:默认选项,此类子网中可以用于创建除标准裸金属服务器外的资源,推荐选择; 标准裸金属子网:仅支持创建标准裸金属服务器和虚拟IP,仅部分可用区资源池支持此选项;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 普通子网 子网名称 是 子网的名称 政务子网 子网网段(IPv4) 是 子网的私有IPv4网段 192.168.0.0/24 网关(IPv4) 是 子网的网关地址 对于可用区资源池,网关地址默认为.1,不可以指定其他地址(部分可用区资源池指定其他地址;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准) 对于地域资源池,网关地址默认为.1,可以指定其他地址 192.168.0.1 DHCP(IPv4) 是 子网的DHCP地址,仅部分可用区资源池支持指定;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 192.168.0.2 子网IPv6网段 否 是否分配子网的IPv6地址 开启 子网IPv6地址段 是 子网开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 仅部分可用区资源池支持此选项;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 自动分配 DNS服务器地址 否 子网内的云主机访问公网时的DNS 服务器地址,DNS服务器地址最多支持两个IP,请以英文逗号隔开。若您想要通过内网DNS访问云上服务,可以设置的DNS服务器地址为100.95.0.1。 100.95.0.1 子网描述 否 自定义的子网描述文案 政务网VPC1的xx业务子网
        来自:
        帮助文档
        虚拟私有云 VPC
        快速入门
        创建VPC、子网搭建私有网络
      • 将MySQL迁移到PostgreSQL
        操作需知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保数据迁移各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待迁移数据量的2.5倍。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 当将MySQL5.x迁移到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行迁移。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 将MySQL同步到MySQL
        操作须知 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 在结构同步时,DTS会将视图、存储过程和函数中的DEFINER转换为INVOKER。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 增量同步场景下,支持无主键表的数据同步。 当将MySQL5.x同步到MySQL5.7,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 当将MySQL5.x同步到MySQL8.x,如源端数据库的引擎类型为MyISAM时,DTS自动将目标库的引擎类型转换为innoDB。 当您在同步数据时包含了触发器(TRIGGER),可能会因为DTS写入目标端的增量数据触发TRIGGER导致源库和目标库数据不一致。为避免数据不一致的问题,DTS会在同步时在触发器对象头部加入触发控制语句,示例代码如下所示: 源库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN UPDATE test SET num num 1 WHERE id 1; END; 目标库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN IF (SELECT @
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到MySQL
      • 将MySQL同步到PostgreSQL
        操作需知 DTS同步过程一般包含四个阶段:预检查阶段、结构同步阶段、全量阶段、增量阶段。为了确保数据同步各个阶段的平顺,在创建同步任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 当将MySQL5.x同步到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 查看告警信息
        本节主要介绍如何查看告警信息。 操作场景 通过查看告警列表,您可以了解近360天的告警威胁的统计信息列表,列表内容包括告警事件的名称、类型、等级和发生时间等。并可通过自定义过滤条件,如告警名称、告警等级和发生时间等,快速查询到相应告警事件的统计信息。 告警管理页面分别呈现“告警”和“攻击”,二者的区别如下: 名称 数据来源 告警 态势感知(专业版)威胁检测模型生成的告警。 用户自定义新增的告警。 用户导入的告警。 攻击 原始的告警。 前提条件 如果需要查看已接入云服务的告警信息,需要在云服务接入时开启“自动转告警”设置。如果未开启,在对应日志满足告警条件时,将不会转为告警,也不会在“告警管理”页面中进行展示。详细操作请参见接入日志数据。 查看告警信息 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“威胁管理 > 告警管理”,进入告警管理页面。 5. 在告警管理页面查看告警信息。 参数名称 参数说明 设置告警的显示时间范围 左上角可设置展示告警的周期,默认展示最近一周内的告警信息。用户可下拉选择或自定义展示告警的周期: 最近24小时 最近一周 最近一个月 自定义:用户自定义设置起止时间。 信息统计 从3个维度统计状态为“打开”或“阻塞”的告警信息: 来源分布:以柱状图形式统计各数据源的告警数。 类型Top5:以告警数维度降序排序统计前Top5类型的告警。 资产风险Top5:展示告警数多的Top5风险资产。 急需处理告警 当前工作空间中状态为“打开”或“阻塞”且风险等级为“高危”或“致命”的告警数量。 待处理告警 当前工作空间中状态为“打开”或“阻塞”,在筛选的时间范围内未处理告警的数量。 告警总数 当前工作空间在筛选的时间范围内告警总数量。 自动处理告警 当前工作空间在筛选的时间范围内通过剧本自动关闭的告警数量。 手动处理告警 当前工作空间在筛选的时间范围内手动关闭的告警数量。 告警列表 在告警列表中下方可以查看告警总条数。其中,使用翻页查看时最多可查看10000条告警信息,如果需要查看超过10000条以外数据,请优化过滤条件筛选数据。 告警列表中,可以查看告警的类型、等级、来源、处理状态等信息。如需查看某个告警概览信息详情,可单击目标告警分类,页面将展示该条告警的详情信息。 也可单击某条告警,进入告警详情页面,在告警详情页面中,可以对该条告警进行编辑、评论、一键解封、一键阻断、处置、转事件、打开、阻塞、关闭、刷新操作。告警详情页的“基础信息”、“告警说明”、“处置建议”、“攻击技战术”最终呈现的告警参数信息取决于告警模型的字段配置。 告警详情页面分别呈现如下告警信息: 概览 基础信息:呈现告警的基本信息,如告警ID、发生时间、数据来源等。 告警说明:呈现告警模型中配置的除基础信息外的其他告警信息,比如告警描述、置信度、关键性、攻击信息等。 处置建议:告警的处置建议。 分析链接:告警分析名称即产生告警的模型名称。 攻击技战术:攻击技术,攻击战术。 评论:展示该条告警以及运行的剧本的历史评论信息,还可以新增评论。 攻击 关联已有事件:该告警关联的事件。 关联情报:该告警关联的情报。 关联资产:该告警关联的资产信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        威胁管理
        告警管理
        查看告警信息
      • 包周期计费模式
        一站式智算服务平台支持包周期和卡时/Token按需计费三种计费模式。本节为您详细介绍包周期计费模式。 包周期付费是指按订单的购买周期进行计费,它属于一种预付费模式,即用户需要先付费再使用服务。通过包周期计费,您可以提前预留资源,确保在需要时能够立即使用。这种模式特别适用于需要稳定资源并长期使用的情况。 费用余额为0时,立即会触发订单冻结动作, 现有运行中的训练任务/启动的开发机实例会停止,但开发中work/cache 中的数据不会丢失,训练会立即终止;新创建开发机/任务会给出欠费提示,持久化存储不会被回收。 如需购买请联系客户经理、官网客服【4008109889】或提交工单。 ​产品名称 规格 CPU 内存(GB) 显卡类型 显卡数 说明 标准价格(含税) 单位 规模要求 训推一体服务DOLC扩展型包周期 184C1520G8910B64G(液冷)或以上 184 1520 910B 8 共享集群 198182.95 元/服务月 训推一体服务DOLC独立型包周期 184C1520G8910B64G(液冷)或以上 184 1520 910B 8 独立集群 196000.00 元/服务月 8台及以上 训推一体服务DOAC扩展型包周期 184C1520G8910B64G(风冷)或以上 184 1520 910B 8 共享集群 174518.09 元/服务月 训推一体服务DOAC独立型包周期 184C1520G8910B64G(风冷)或以上 184 1520 910B 8 独立集群 172000.00 元/服务月 8台及以上 训推一体服务FOL2 224C2048G8H80064G或以上 224 2048 H800 8 独立集群 241212.00 元/服务月 H20专属节点 104C2048GB8H2096GB 104 2048 H20 8 专属节点 44000.00 元/服务月
        来自:
        帮助文档
        一站式智算服务平台
        计费说明
        包周期计费模式
      • 集群定时备份
        本节介绍集群定时备份用户指南。 前提条件 1. 已完成集群注册,具体操作请参见 本地注册集群 / 三方云注册集群。 2. 集群已安装ccsebackup插件,具体操作请参考 插件。 操作步骤 下发备份任务 1. 登陆分布式容器云平台,在左侧导航栏中选择集群资源 > 集群管理,进入注册集群列表页。 2. 在注册集群列表中点击需要备份的集群,进入单集群管理页面。 3. 在单集群管理页面导航栏中选择运维管理 > 集群定时备份 > 创建备份 ,进入集群定时备份配置页面。 4. 填写配置项后,点击“确定”下发备份任务。 备份配置项说明: 配置项名称 说明 名称 必填,备份任务的名称,名称限制为由小写字母开头,只允许小写字母,数字和‘’组成,且备份任务是当前集群中唯一。 命名空间 非必填,选择备份资源的命名空间,可多选。 资源 非必填,选择所备份资源的类型,可多选,也可以手动输入。 持久卷 选择是否备份pod所使用的持久卷,备份内容中有pod资源,此项才生效。不能备份临时卷及hostPath。 保留天数 必填,定时备份后产生的备份包所保留的天数,超过保留天数的备份包则会被自动清理。 时间点 必填,定时备份时执行的时间点,为整点。 重复周期 必填,定时备份任务重复在一周内哪几天触发执行。 说明 1. 此处建议保留天数要大于两个定时备份任务执行的间隔天数,否则会导致任务执行完毕后,还没等到下个任务开始,就被清理。 2. 备份任务下发后,在备份列表中可查看定时备份任务的各项配置。 备份列表的操作列还包含以下三个操作: 编辑:弹出定时任务编辑框修改定时任务信息。 立即执行:马上触发备份任务执行。 删除:删除当前定时备份任务。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        注册集群
        注册集群控制台
        运维
        备份
        集群定时备份
      • Linux系统重启后/etc/hosts自动添加主机名解析
        本文为您介绍Linux系统重启后/etc/hosts自动添加主机名解析的处理方法。 问题描述 重启使用 Linux 系统的云主机后发现 /etc/hosts 文件被全部重写或被添加了主机名和回环地址(例:127.0.0.1、127.0.1.1)的解析,导致域名解析不符合预期或出现问题。 问题原因 云平台 Linux 镜像中的一个核心组件是 cloudinit。作为开源的云初始化程序,cloudinit 主要用于对主机名、初始密码等一些自定义信息进行初始化配置。若 cloudinit 配置中存在对 manageetchosts 的配置,则 cloudinit 会根据具体配置值决定如何调整 /etc/hosts 文件。公共镜像默认不启用 cloudinit 对 /etc/hosts 的修改功能,即 manageetchosts 不做配置或配置为 false(默认值)。若您使用了公共镜像并修改了 cloudinit 配置或使用了私有镜像,则可参考此指导来尝试解决问题。 问题排查思路 /etc/hosts 文件被全部重写可能是因为 cloudinit 配置中将 manageetchosts 配置成了true(若您安装的 cloudinit 版本低于22.3,则还可能是配置成了 template)。此时,cloudinit 会根据/etc/cloud/templates/hosts.tmpl 来重写 /etc/hosts 文件。 而 /etc/hosts 文件被添加主机名解析可能是因为 cloudinit 配置中将 manageetchosts 配置成了 localhost。 解决步骤 1. Cloudinit 配置文件是 /etc/cloud/cloud.cfg,您可能还将自定义配置放于 /etc/cloud/cloud.cfg.d/ 目录下。搜索包含 manageetchosts 配置的文件可使用以下命令: grep rn ‘manageetchosts’ /etc/cloud/ 返回结果示例: 2. 以上述返回结果为例,可以看到在/etc/cloud/cloud.cfg 文件中的第20 行将 manageetchosts 配置成了 localhost,此时您需要修改 cloud.cfg 中的 manageetchosts 配置,即: 原文:manageetchosts: localhost 修改后:
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        网络配置
        Linux系统重启后/etc/hosts自动添加主机名解析
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 下一代防火墙v1.0
        本节介绍云等保专区产品的下一代防火墙配置类问题。 下一代防火墙如何进行接入策略设置? 首先明确资源池区域,如果资源池为:南宁23、华东1、上海36、武汉41、青岛20、华北2、长沙42、西南1、南昌5,进行如下配置: 1. 用户登录到云等保专区后,进入“下一代防火墙”原子能力,进行绑定弹性IP操作,点击“绑定弹性IP”。 根据弹出的弹性IP地址,选择需要绑定的具体IP地址。 2. 完成弹性IP绑定工作后需要进行子网路由绑定,进入到天翼云控制台,选择“网络 > 虚拟私有云”进入配置页面。 3. 选择“路由表 > 创建路由表”,进行路由表创建。填写路由名称,以及需要防护的VPC之后,在关联资源类型处选择“子网”。 4. 创建完成后,根据刚才创建的名称选择刚才创建的路由,点击名称进入子网路由配置页面,点击“创建”按钮,进行子网路由创建操作。 5. 在路由规则创建处填写对应的IP地址,在云主机选择是选择下一代防火墙的云主机。 6. 进行子网关联设置,点击“关联子网”模块,选择需要关联的子网,点击“确定”按钮即可。 7. 在系统菜单中点击“策略 > 防火墙策略 > 一体化策略”,进入一体化策略配置页面。 8. 点击“新建”创建新的一体化策略。 其余资源池进行如下配置: 1. 用户登录到云等保专区后,进入“下一代防火墙”原子能力,进行绑定弹性IP操作,点击“绑定弹性IP”。 根据弹出的弹性IP地址,选择需要绑定的具体IP地址。 2. 确认需要防护的资产在子网内的IP地址。 3. 完成弹性IP绑定操作之后,点击进入下一代防火墙配置,进入下一代防火墙配置页面,点击“NTA策略”“策略”“新建”,进入NAT配置新建一条DNAT规则。 4. 建立防火墙上端口到资产业务端口的端口映射(以防火墙开放10022端口映射到资产22端口为例)。 5. 配置完毕点击右上角保存按钮保存。 6. 在系统菜单中点击“策略 > 防火墙策略 > 一体化策略”,进入一体化策略配置页面。 7. 点击 创建新的一体化策略。
        来自:
        帮助文档
        云等保专区
        常见问题
        产品配置类
        下一代防火墙
        下一代防火墙v1.0
      • 索引存储设置
        您可以根据实际情况,配置索引的存储节点信息,支持设置为Redis或MySQL类型。 注意事项 修改存储设置后,需要重新启动GiServer服务并重建索引。 启动GiServer也将重启该节点的DBProxy服务,启动期间该节点不可用,可能影响查询效率,请谨慎操作。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击全局索引 ,进入GiServer存储设置页签。 5. 在GiServer设置区域,根据实际情况,配置如下存储节点信息。 存储类型 设置为redis: 参数 描述 redis类型 Redis类型,取值范围: 单机版 集群版 host IP地址。 说明 单机版只能输入一个IP地址。 集群版可以输入多个IP地址,使用英文逗号(,)分隔,例如127.0.0.1,127.0.0.2。 port 端口号。 说明 只需输入一个端口号即可。 password 密码。 说明 只需输入一个密码即可。 minIdle 最小空闲连接数。 maxIdle 最大空闲连接数。 maxTotal 最大连接数。 GiServer启动节点 GiServer启动节点。将会在所选择的GiServer节点部署GiServer服务,可选择低负载节点进行部署启动。 注意 至少选择一个。 支持选择多个,可实现高可用索引服务,但同时会占用节点内存,可根据业务按需选择。 存储类型 设置为mysql: 参数 描述 使用已开通的RDS 是否使用已开通的MySQL实例。 如果您使用已开通的MySQL实例,则只需打开该开关,在选择MySQL 中配置目标MySQL实例,即可自动获取该MySQL实例的数据库IP 和数据库端口。 数据库IP 已部署MySQL数据库的机器IP地址。 注意 只有从Giserver能连接到MySQL数据库的机器IP地址才有效,建议输入与Giserver相同VPC下的IP地址。 数据库端口 MySQL数据库的访问端口。 数据库用户 MySQL数据库用户。 数据库密码 MySQL数据库的密码。 初始连接数 Giserver初始化时创建的数据库连接数(数据库连接池参数)。 最小空闲连接数 连接池里始终保持的最小空闲连接数。 说明 即使Giserver性能压力很小,连接池仍会保证至少可用的数据库连接数,以快速响应新请求。 最大活跃连接数 连接池里允许的最大并发连接数。 说明 通过限制连接池最多可以支持同时建立的数据库连接数,可以防止Giserver性能压力较大时,MySQL数据库因数据库资源耗尽或过载出现的异常。 获取链接超时时间(毫秒) Giserver从连接池中获取的MySQL数据库连接的最大等待时间。当超过等待时间,Giserver与MySQL数据库还未建立连接,则会报错。 索引查询超时时间(秒) DBProxy执行SQL查询时,使用全局索引的最大允许时间。当超过最大允许时间,DBProxy会跳过索引,使用广播查询。 元数据库名 MySQL数据库的元数据库名称。 GiServer启动节点 GiServer启动节点。将会在所选择的GiServer节点部署GiServer服务,可选择低负载节点进行部署启动。 注意 至少选择一个。 支持选择多个,可实现高可用索引服务,但同时会占用节点内存,可根据业务按需选择。 6. 单击检测,并等待检测通过。 注意 存储类型 设置为redis时,无法检测redis,请自行确保redis信息填写正确。 存储类型 设置为mysql 时,必须检测通过后,才能单击保存。 7. 单击保存。 8. 在确认启动GiServer节点 对话框中,确认启动的GiSever节点信息无误后,单击确认启动。 启动成功后,您可以在索引服务管理 页签下,查看已启动的GiServer节点信息,其中,节点初始化状态 为已初始化 、节点状态 为运行中。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        全局索引
        索引存储设置
      • 计费类问题
        如何让云主机备份服务不再扣费? 删除所有备份。已经创建过镜像的备份不允许手动或自动删除,如果想要删除备份,需要先删除该备份创建的镜像。 将服务器/磁盘从备份策略中解绑,并且停用所有备份策略。当天备份删除后,由于当天费用太少而会小额累加,会出现在第二天才会进行扣费的情况。后续将再无扣费产生。 如何停用云主机备份? 如您希望停用云服务器备份可前往云服务器备份界面进行如下操作: 删除所有备份。已经创建过镜像的备份不允许手动或自动删除,如果想要删除备份,需要先删除该备份创建的镜像。 将服务器/磁盘从备份策略中解绑,并且停用所有备份/复制策略。 云主机备份无法直接关闭,可以通过上面的方法停用云主机备份。 为什么备份删除后还有扣费? 当天备份删除后,由于当天费用太少而会小额累加,会出现在第二天才会进行扣费的情况。云主机备份无法直接关闭,如您希望停用云主机备份,请参考如何停用云主机备份进行操作。 云主机备份后会同步云硬盘备份产生对应服务器的云硬盘备份,这个备份是怎么计算的? 如果备份的来源是云主机备份,就不收费。单独的云硬盘备份是收费的。 显示在云硬盘备份界面的云服务器备份是否会重复计费吗? 不会重复计费,云主机创建的云服务器备份也会出现在云硬盘备份界面,可以在备份详情的“来源”中识别云服务器备份。 云服务器备份实际上是对其中的每一个磁盘进行备份,这些磁盘的备份会同时在VBS备份列表展示,您可以直接在VBS使用这些备份恢复磁盘。
        来自:
        帮助文档
        云主机备份 CSBS
        常见问题
        计费类问题
      • 以OpenTelemetry方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry c SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry c SDK提供了c语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1、安装依赖包 plaintext dotnet add package OpenTelemetry.Exporter.Console dotnet add package OpenTelemetry.Extensions.Hosting dotnet add package OpenTelemetry.Instrumentation.AspNetCore dotnet add package OpenTelemetry.Exporter.OpenTelemetryProtocol 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 1)使用http协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplehttp"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用HTTP协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.HttpProtobuf;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run(); 2)使用grpc协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplegrpc"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用gRPC协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.Grpc;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以OpenTelemetry方式接入
      • 资产指纹
        功能项 功能描述 检测周期 帐号 检测主机系统中的帐号,列出当前系统的帐号信息,帮助用户进行帐户安全性管理。根据帐号的实时信息和历史变动,您可以快速排查主机中的可疑帐号。 帐号的实时信息包括帐号的“帐号名称”、“服务器数”以及具体帐号对应的“服务器名称/IP”、“登录权限”、“ROOT权限”、“用户组”、“用户目录”、“用户启动Shell”和“最近扫描时间”。 帐号的历史变动记录包括“服务器名称/IP”、“变动状态”、“登录权限”、“ROOT权限”、“用户组”、“用户目录”、“用户启动Shell”和“最近扫描时间”。 实时检测 开放端口 检测主机系统中的端口,列出当前系统开放的端口列表,帮助用户识别出其中的危险端口和未知端口。根据“本地端口”、“协议类型”以及具体端口对应的“服务器名称/IP”、“状态”、“进程PID”、“程序文件”,您能够快速排查主机中含有风险的端口。 手动关闭风险端口 如果检测到开放了危险端口或者开放了不必要的端口,需要排查这些端口是否是正常业务使用,如果不是正常业务端口,建议关闭端口。对于危险端口建议进一步检查程序文件,如果存在风险建议删除或者隔离源文件。 建议您及时优先处理危险程度为“危险”的端口,根据业务实际情况处理危险程度为“未知”的端口。 忽略风险:如果检测出的危险端口是业务正在使用的正常端口,您可以忽略该条告警。忽略之后将不再作为危险项进行记录,也不再发送告警。 实时检测 进程 检测主机系统中运行的进程,对运行中的进程进行收集及呈现,便于自主清点合法进程发现异常进程。 根据主机中“进程路径”以及具体进程对应的“服务器名称/IP”、“启动参数”、“启动时间”、“运行用户”、“文件权限”、“进程PID”以及“文件HASH”,您能够快速排查主机中的异常进程。 进程信息管理检测的机制是30天检测不到进程后,自动清除进程信息管理列表中的进程信息。 实时检测 软件 检测并列出当前系统安装的软件信息,帮助用户清点软件资产,识别不安全的软件版本。 根据软件的实时信息和历史变动,您能够快速排查主机中含有风险的软件。 软件的实时信息包括“软件名称”、“服务器数”以及具体软件对应的安装该软件的“服务器名称/IP”和“版本”、“软件更新时间”和“最近扫描时间”。 软件的历史变动记录包括软件的“服务器名称/IP”、“变动状态”、“版本”、“软件更新时间”和“最近扫描时间”。 每日自动检测 自启动项 检测并列出当前所有主机系统中的自启动项,帮助用户及时发现异常自启动项,快速定位木马程序的问题。 自启动项的实时信息包括“名称”、“类型”(自启动服务、开机启动文件夹、预加载动态库、Run注册表键或者定时任务)、“服务器数”以及类型对应的“服务器名称/IP”、“路径”、“文件HASH”、“运行用户”、以及“最近扫描时间”。 自启动项的历史变动记录包括“服务器名称/IP”、“变动状态”、“路径”、“文件HASH”、“运行用户”和“最近扫描时间”。 实时检测 Web站点 统计、展示存放Web内容的目录及对外提供访问的站点信息,您可以查看所有目录及权限、以及和站点所关联访问路径、对外端口、证书信息(后续提供)、关键进程等信息。 1次/周(每周一凌晨06:00) Web框架 统计、展示Web内容对外呈现时所使用框架的详细信息,您可查看所有框架的版本、路径、关联进程等信息。 1次/周(每周一凌晨06:00) 中间件 统计、展示所使用到的所有软件信息,您可查看所有中间件所关联的服务器、版本号、路径、关联进程等信息。 1次/周(每周一凌晨06:00) 内核模块 统计、展示运行在内核层的全量程序模块文件,您可查看所有模块所关联的服务器、版本号、模块描述、驱动文件路径、文件权限、文件哈希等信息。 1次/周(每周一凌晨06:00)
        来自:
        帮助文档
        企业主机安全
        用户指南
        资产管理
        资产指纹
      • 关联MySQL设置
        本章节主要介绍分组管理中的关联MySQL设置相关操作,用于设置实例关联的后端数据库属性,大部分情况下按默认设置即可。 注意事项 设置属性后,需要重启服务节点后才能生效。 仅V2.9.0及以后版本创建的实例,支持设置自定义读写分离权重。 关联MySQL实例后,该MySQL实例将无法直接被退订。如果您的业务不再需要使用该MySQL实例,您可以解除关联后,在MySQL > 实例管理页面退订该MySQL实例。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击分组管理,进入分组管理页面。 5. 在分组列表中,找到目标分组,单击操作 列的属性设置 ,进入分组配置面板。 6. 单击关联RDS设置页签。 7. 单击操作 列的设置属性 ,然后在设置属性面板中配置服务节点连接MySQL的行为参数。 属性列表 关联MySQL可配置属性如下所示: 属性编码 属性名称 说明 maxCon 最大连接数 实例连接池的最大连接。 secondsBehindMaster 主备延迟阈值(秒) 如果主备延迟时间超过设置的阈值,备库将被剔除读写分离,默认值0表示永不剔除,请谨慎设置。 maxIdle 最大空闲连接数个数 实例连接池的最大空闲连接数个数,默认32。 idleTimeout 空闲的超时时间(毫秒) 实例连接池连接空闲的超时时间。 connectTimeout 获取连接超时(毫秒) 实例连接池连接获取连接超时时间。 balance 读写分离配置 读写分离属性配置,支持配置为: 关闭 :即balance 0,表示不开启读写分离,所有语句均发往写节点。 读语句发往读库 :即balance 1,表示开启读写分离,所有事务外(autocommit1)的SELECT语句发往读节点;所有事务内(autocommit0)的语句发往写节点。 读语句随机发往读库和写库 :即balance 2,表示开启读写分离,所有事务外(autocommit1)的SELECT语句随机发往读节点或写节点;所有事务内(autocommit0)的语句发往写节点。 自定义权重 :即banlance 3,表示开启读写分离,支持根据实际情况,设置自定义读写分离权重。 说明 在对数据库有少量写请求,但有大量读请求的应用场景下,为了实现读取能力的弹性扩展,防止MySQL实例主备节点性能差异导致的节点过载,您可以通过读写分离特性,将读语句发送到指定的节点满足大量的数据库读取需求。DRDS的读写分离功能运行机制如下: 如果会话未开启事务,读语句将直接发送到salve(从节点)执行。 如果会话已开启事务,读语句将发送到master(主节点)上执行。 weights 读写分离权重配置 仅读写分离配置 设置为自定义权重时,需要配置该参数,表示开启读写分离,并且您需要设置读节点的权重。 注意 新增的从节点权重默认为0,表示读请求不会发往新增的从节点,您可以根据实际情况修改该节点的权重。 dbType 后端连接的数据库类型 指定后端连接的数据库类型,目前支持二进制的MySQL协议,目前暂时支持MySQL和MariaDB,后面会逐渐支持其他数据库。 dbDriver 连接后端数据库使用的Driver 指定连接后端数据库使用的Driver,目前可选的值有native和JDBC,使用native的话,因为这个值执行的是二进制的MySQL协议,所以可以使用MySQL和MariaDB。其他类型的数据库则需要使用JDBC驱动来支持。但是目前还暂时不支持。 heartbeatSQL 心跳检查的语句 用于和后端数据库进行心跳检查的语句。例如,MYSQL可以使用select user()。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        节点与分组管理
        分组管理
        关联MySQL设置
      • 集群创建
        本文介绍如何集群创建。 集群是计算资源的集合,包含一组节点资源,容器运行在节点上。在创建容器应用前,您需要存在一个可用集群。目前最多可以创建5个集群,请确保至少有一个可用的集群。如集群数量不够,可申请增加配额。 操作前提 能够确保账户中有充足的余额,否则将导致您的业务开通失败; 在【创建集群】之前,请确保已完成VPC、子网的创建及安全组的配置,若未创建可参考上一【环境设置】部分。 操作步骤 1. 登录天翼云; 2. 选择【控制台】>点击切换到具体资源池,如杭州2节点; 3. 在控制台中找到【容器服务】>点击【容器引擎】,进入容器服务界面; 4. 进入【总览】页面>单击【创建集群】按钮,进入集群创建界面; 5. 按照需要完成集群参数填写,集群创建参数详见下表,其中带“”的参数为必填参数。 参数 参数说明 基础配置 集群名称 新建集群的名称 Kubernetes版本 1.15/1.18 地域 根据最初选择的地域决定,集群创建过程中不可选 虚拟私有云 新建集群所在的虚拟私有云。若没有可选虚拟私有云,单击“创建虚拟私有云”进行创建 子网 节点虚拟机运行的子网环境。若没有可选子网,单击“创建子网”进行创建 系列 分为基础版、高级版(基础版集群将创建1个master节点和相应控制节点,worker节点配置由用户自由选择;高级版集群将创建3个master节点和相应控制节点,worker节点配置由用户自由选择。) 容器CIDR 默认是10.223.0.0/16,确定容器网段后,容器实例将在规划的网段内分配IP。不能与集群所选的VPC重复,当vpc和容器网段或者服务网段冲突提示:默认网段与所选虚拟私有云网段有冲突,请重新选择vpc 服务CIDR 默认是10.96.0.0/16,服务网段为kubernetes service ip网段,请根据业务需求选择该网段。不能与集群所选的VPC重复 企业项目 此项与主子账户权限有关,如果有主子账户权限分配要求,请提前规划企业项目 注: 如果您选择了IPv4/IPv6双栈的VPC和子网,那么要同时设置IPv4的容器CIDR和服务CIDR,以及IPv6的容器CIDR和服务CIDR,均不能与集群所选VPC重复。默认情况下,IPv6容器CIDR:fd03::/112;IPv6服务CIDR:fd05::/112。如有需要用户请根据个人需求进行修改。 worker 节点配置 规格 请根据业务需求选择相应的节点规格。 当前使用的是通用型S2类型云主机,可选规格以界面上显示为准 操作系统 请选择节点对应的操作系统 系统盘 默认为普通IO,50GB 数据盘 普通IO、高IO,规格为[50,2048]GB,默认50GB;范围502048GB;整数;填入小数自动四舍五入为整数,输入为空自动设置为50;步长为10 弹性IP 使用已有IP:使用已经创建出的弹性公网IP 创建后设置:不使用弹性公网IP(不使用弹性公网IP不能通过公网发送请求,可创建后绑定) 网络模型 容器隧道网络:基于底层 VPC 网络,构建独立的容器 VXLAN 隧道化的容器网络,与底层网络解耦,支持高扩展性,网络策略,多容器网络平面 worker节点数 默认最小值是1,只允许填入整数;步长为1;设置的节点数不能超过最大节点规模50;输入为空自动设置为1 购买时长 根据需求,设置购买时长 6. 确认右侧订单详情无误并确保已放开安全组6443、9080、9443、2379、2380端口后,单击【创建集群】,进入付费界面,完成费用支付; 7. 集群创建预计需要 610 分钟。请根据界面提示查看集群创建过程。创建完成后,点击【返回集群管理】链接; 8. 在导航栏单击【资源管理】>【集群管理】标签,进入集群列表界面,可查看创建的集群。
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        集群
        集群创建
      • xlog(WAL)堆积类问题
        本页介绍天翼云TeleDB数据库xlog(WAL)堆积类问题。 xlog(WAL)堆积问题总体排查思路 问题描述 xlog(WAL)堆积,明显超过预期大小,导致磁盘空间使用率上涨,甚至打满磁盘,影响实例运行。 可能影响 占用更多的磁盘空间; 可能会打满磁盘,影响实例运行。 解决步骤 1. 首先检查WAL和归档相关参数,核实参数是否符合预期; > 连接到WAL日志堆积的节点,执行以下SQL: > > select currentsetting('walkeepsegments') as walkeepsegments,(select count(1) > from pglsdir('./pgwal/')) as walcount; > WAL相关参数中,walkeepsegments为保留WAL日志文件的数量,通常实际统计的WAL日志文件数量比walkeepsegments稍多,相差几百内都属于正常范围,明显超出则确定WAL日志有堆积; 2. 检查WAL日志增长量是否符合预期; > 登录WAL日志堆积的节点所在服务器,进入pgwal目录,执行以下shell命令,按纬度统计WAL数量; > 统计每小时日志数量 > > ls lrt egrep [09AZ]{16}awk '{print $6" "$7" "$8}'awk F: '{print $1}'sort uniq c > 统计每天日志数量 > > ls lrt egrep [09AZ]{16}awk '{print $6" "$7}'awk F: '{print $1}'sort uniq c 3. 检查复制槽状态,是否有activefalse的复制槽; > 连接到WAL日志堆积的节点,执行以下SQL: > > select from pgreplicationslots where activefalse; > 如果有activefalse的复制槽,那么就会导致WAL堆积,需要核实并解决复制槽问题; 4. 如果不是复制槽问题,可以继续检查归档配置是否正确; > 连接到WAL日志堆积的节点,执行以下SQL: > > show archivestatuscontrol; > 如果参数查询结果为break,那么WAL日志文件不会被正常删除,需要核实并更正参数为continue; 5. 检查归档执行状态是否正常; > 登录WAL日志堆积的节点所在服务器,检查archiver进程状态是否正常,进程显示的last 归档的文件是否在更新。 > > ps fegrep archiver > 查询结果显示为archiver process failed on xxx,则说明归档败了,需要进一步排查归档失败原因; > 也可以执行以下SQL查询归档执行状: > > select from pgstatgetarchiver(); > 其中failedcount>0表示有归档失败。 6. 检查归档速度是否正常; > 如果归档正常,那需要检查归档速度是否正常,归档速度是否能赶上WAL日志生成的速度,如果归档速度比生成的慢,那么WAL日志会逐渐堆积起来,可以从减少WAL日志生成量和加快WAL日志文件归档两个方面入手进行优化; 7. 检查是否有长事务/长时间执行未结束的SQL; > 连接到WAL日志堆积的节点,执行以下SQL: > > select pid,clientaddr,statechange,querystart,statechange,EXTRACT(EPOCH FROM > (now()querystart)),query,state,usename,applicationname from pgstatactivity where > EXTRACT(EPOCH FROM (now()querystart))>600 and state!'idle'; > 如果有长时间执行未结束的SQL或事务,需要核实后清理掉,避免影响WAL日志文件的清理。 8. 如果影响业务,需要快速恢复,可以先手动清理,再定位原因; > 登录WAL日志堆积的节点所在服务器,进入pgwal/archivestatus目录,执行以下shell命令,修改.ready 的扩展名称.done > > find .ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done > 或 > > ls lrt grep .ready awk F' ' '{print $NF}' xargs i rename ready done ./{} > 如果提示有太多的bash: /usr/bin/find: Argument list too long,则需要分批修改,具体前缀可以 top看一下 Arichve 进程当前在处理哪个WAL,然后取其前缀就行,例如: find 00000001000005[19].ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done find 00000001000005[AF].ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        xlog(WAL)堆积类问题
      • 节点启动或停止失败类问题
        本页介绍天翼云TeleDB数据库节点启动或停止失败类问题。 节点启动失败问题总体分析思路 问题描述 控制台页面上显示节点为停止/异常状态,手动启动失败。 可能影响 DN主节点启动失败,会导致访问到该DN的节点SQL报错,实例部分不可用; CN主节点启动失败,会导致流入该节点的SQL语句报错,流入其它CN主节点的DDL语句报错; GTM主节点启动失败,会导致整个实例不可用; GTM/CN/DN备节点失败失败,如果开启同步复制,同步复制节点数量不足且未启用退化策略时,会导致DDL、DML语句卡住; GTM/CN/DN备节点失败失败,可能会导致无可用备节点,主节点再次异常会导致实例不可用,有数据丢失风险。 解决步骤 1. 控制台页面启动节点会下发任务到节点所在的Agent服务,检查Agent服务运行是否正常,如果Agent未启动或启动失败,优先解决Agent服务问题,再尝试启动节点; > Agent服务运行情况检查: > > ps fu teledbxgrep teledbxossgrep ossservergrep v grep > 返回有一个进程存在,输出结果如: > > teledbx 16371 1 1 2023 ? 203:21:22 > /home/teledbx/install/teledbxoss/bin/ossserver conf > /home/teledbx/install/teledbxoss/config//teledbxossconf.ini log > /home/teledbx/install/teledbxoss/logs/ level 1 > Agent服务端口监听情况检查: > > netstat lntpgrep ossserver > 返回应包含至少两行记录,端口包含8118、8119,输出结果如: tcp 0 0 172.16.16.15:8118 0.0.0.0: LISTEN 16371/ossserver tcp 0 0 127.0.0.1:8119 0.0.0.0: LISTEN 16371/ossserver > Agent服务日志检查: > teledbx用户家目录下install/teledbxoss/logs/osslogxxx(pid),通常为/home/teledbx/install/teledbxoss/logs/osslogxxx(pid) > 查看最新的日志文件内容是否有FATAL错误。 > 如果进程不存在,则需要检查原因,因为Agent服务有crontab任务守护,会每分钟检测,异常时自动拉起。 > 如果进程在持续不断的重启,则需要根据日志检查具体原因。 > 如果进程运行正常,则继续分析节点启动日志和运行日志。 2. 节点启动日志有几个地方可以查看 > 1)Agent日志中节点启动日志 > 在Agent的osslogxxx(pid)中会打印节点启动日志和报错信息,可通过以下egrep命令搜索日志中启动信息和返回结果: egrep pgctl.start osslogxxx > 2)节点启动日志 > Agent日志目录log下有个节点启动停止目录clslog,该目录下记录了该服务器上部署所有实例、所有节点的启动停止日志,目录如: > /home/teledbx/install/teledbxoss/logs/clslog/实例id/节点名称节点id节点ip节点端口/pgctl.startyyyymmddhh24miss.log 或pgctl.stopyyyymmddhh24miss.log > 对于启动加载配置文件、控制文件、监听端口、分配内存等在节点启动前的异常报错,会在该日志中记录;这里没有报错,通常节点可以顺利启动成功; > 如果这里没有启动日志,或没有更新,则需要检查Agent服务。 > 如果这里有启动日志,但是在不断的启动、停止、启动...,则需要检查节点运行日志。 > 3)节点运行日志 > 在节点数据目录下的pglog目录,记录了节点启动后运行时的一些信息,默认为postgres星期(英文)小时.csv; > 如果这里没有日志更新,则需要检查节点启动日志和Agent服务。 > 如果这里日志有更新,则查看日志,根据日志提示进行处理。 3. 根据上述日志具体报错,做相应处理,如:磁盘空间%、操作系统内存不足导致启动节点时不能分配内存,节点数据目录部分文件权限不足、文件损坏、配置文件参数错误等。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        节点启动或停止失败类问题
      • 部署HBlock
        本节主要介绍部署单机版HBlock。 部署HBlock的主要步骤为: 1. 安装前准备:准备一个或多个目录作为HBlock数据目录,安装HBlock的用户对这些目录有读写权限,用来存储HBlock数据。 说明 为了避免相互影响,建议数据目录不要与操作系统共用磁盘或文件系统。 2. 解压缩安装包,并进入解压缩后的文件夹路径。 3. 安装并初始化HBlock。 4. 获取软件证书并加载。 5. 创建iSCSI Target并查询。 6. 创建卷并查询。 说明 下面以x86服务器的HBlock安装部署举例,ARM服务器或者龙芯服务器的安装部署与x86服务器的安装部署相同。 详细步骤 1. 请先完成以下准备工作:在服务器上准备一个或多个目录作为HBlock数据目录,用来存储HBlock数据。如:/mnt/storage01,/mnt/storage02。 2. 将安装包放到服务器欲安装HBlock的目录下并解压缩,进入解压缩后的文件夹(以HBlock 4.0.0为例)。 plaintext unzip CTYUNHBlockPlus4.0.0x64.zip cd CTYUNHBlockPlus4.0.0x64 3. 安装并初始化HBlock。 1. 安装HBlock。 注意 安装HBlock和执行HBlock管理操作的应该属于同一用户。 在服务器上安装HBlock。 ./stor install [ { a apiport } APIPORT ] [ { w webport } WEBPORT ] APIPORT :指定API端口号,默认端口号为1443。 WEBPORT :指定WEB端口号,默认端口号为2443。 2. 初始化HBlock。 初始化HBlock具体命令行详见初始化HBlock。 ./stor setup { n storname } STORNAME [ { u username } USERNAME ] { p password } PASSWORD { s server } { SERVERIP [:PORT ]:PATH & } [ { P publicnetwork } CIDR ] [ iscsiport ISCSIPORT ] [portrange PORT1PORT2 ] [ managementport1 MANAGEMENTPORT1 ] [ managementport2 MANAGEMENTPORT2 ] [ managementport3 MANAGEMENTPORT3 ] [ managementport4 MANAGEMENTPORT4 ] [ managementport6 MANAGEMENTPORT6 ] 说明 可以通过web、命令行和API进行初始化HBlock。 3. 查询服务器。 ./stor server ls [ { n server } SERVERID ] [ port ] 4. 获取软件许可证并加载 HBlock软件提供30天试用期,过期后仅部分功能可用,详见软件许可证到期(试用期或订阅模式)后仍可用的功能。您可以通过下列步骤获取软件许可证。 1. 获取HBlock序列号。 ./stor info { S serialid } 2. 联系HBlock软件供应商获取软件许可证,获取的时候需要提供HBlock序列号。 3. 获取软件许可证后,执行加载。 ./stor license add { k key } KEY 5. 创建iSCSI Target并查询。 1. 创建iSCSI Target。 创建iSCSI Target命令行详见创建iSCSI Target。 ./stor target add { n name } TARGETNAME [ maxsessions MAXSESSIONS ] [ { c chapname } CHAPNAME { p password } CHAPPASSWORD { s status } STATUS ] 说明 如果允许 iSCSI Target下的IQN建立多个会话,可以通过配置参数maxsessions MAXSESSIONS 来实现。 2. 查询iSCSI Target。 ./stor target ls [ c connection ] [ { n name } TARGETNAME ] 6. 创建卷并查询卷 1. 创建卷 创建卷命令行详见创建卷。 本地卷 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { P path } PATH ] [ { { m mode } STORAGEMODE ] 上云卷 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { P path } PATH ] { m mode } STORAGEMODE { B bucket } BUCKETNAME { A ak } ACCESSKEY { S sk } SECRETKEY [ { C cloudstorageclass } CLOUDSTORAGECLASS ] { E endpoint } ENDPOINT [ signversion VERSION ] [ region REGION ] [ { M cloudcompression } CLOUDCOMPRESSION ] [ { O objectsize } OBJECTSIZE ] [ { X prefix } PREFIX ] 2. 查询卷 ./stor lun ls [ { n name } LUNNAME ]
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        服务器端部署
        HBlock部署-单机版
        部署HBlock
      • 创建终端节点服务
        本文将向您介绍创建终端节点服务的步骤,以便您根据实际需求进行操作。 操作场景 终端节点服务是将云服务或用户私有服务配置为VPC终端节点支持的服务。目前支持"接口"类型的终端节点服务的创建。 约束及限制 单个VPC可以创建终端节点服务实例数为20个。 单个终端节点服务可连接终端节点实例数为500个。 单个终端节点只能连接1个终端服务节点实例。 前提条件 在同一VPC内已创建了后端资源。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方点击图标,选择所需的资源池节点,以下操作选择华东华东1。 3. 在系统首页,选择“网络>VPC终端节点”,进入“终端节点”页面。 4. 在左侧导航栏选择“终端节点服务”,点击“创建终端节点服务”。 5. 在“创建终端节点服务”页面根据“接口型”终端节点服务配置说明配置参数,点击“确定”完成创建。 “接口型”终端节点服务配置说明 参数 说明 地域 终端节点服务所在地域,页面左上角可切换地域。不同地域的资源之间内网不互通,为了最优化的性能,请选择靠近您的地域,以降低网络时延并提高访问速度。 名称 终端节点服务的名称。名称由数字、字母、中文、、组成,不能以数字、和开头。 VPC 终端节点服务所属虚拟私有云。 服务类型 终端节点服务的类型,当前支持“接口”类型终端节点服务。 IP地址类型 服务IP地址类型,IPV4:仅自持IPV4类型终端节点连接,实现IPV4地址私网访问服务,双栈:支持IPV4和IPV6类型终端节点连接,实现IPV4和IPV6地址的私网访问服务。选择双栈类型时,挂载的后端服务资源池必须也是双栈类型资源。 是否自动接收连接 是否自动接收终端节点与终端节点服务的连接,审核权由终端节点服务控制。 可选择“是”或“否”。选择“否”不自动接受连接,则创建的终端节点为“待审核”状态,需要终端节点服务审核后方可使用。 服务计费 是否开启服务计费,可选择“是”或“否”。 默认连接服务的终端节点费用有终端节点创建账户支付,如服务开启服务计费后,则连接服务的终端节点费用将由服务所在账户支付,功能仅创建时指定,服务创建后不可修改。 端口映射 终端节点服务与终端节点建立连接,支持通过TCP/UDP协议进行通信。 服务端口:终端节点服务绑定了后端资源,作为提供服务的端口。 终端端口:终端节点提供给用户,作为访问终端节点服务的端口。 服务端口和终端端口取值范围1~65535,单次操作最多可添加20条端口映射。 访问终端节点服务时,通过"终端端口 → 服务端口"的方式进行数据传输和通信。 后端资源类型 实际提供服务的后端资源。可创建为终端节点服务的后端资源包括: 云主机:作为服务器使用。 物理机:作为服务器使用。 虚拟IP:适用于需要主备高可靠的业务。 内网负载均衡:适用于高访问量业务和对可靠性和容灾性要求较高的业务。此处选择“内网负载均衡”。 说明:终端节点服务配置的后端资源所在安全组,安全组添加的规则是白名单,需要添加源地址为198.19.128.0/20的白名单入方向规则,详细操作请参考《虚拟私有云用户指南》中的添加安全组规则。 后端资源子网 选择后端资源所属的子网。 描述(可选) 可添加终端节点服务相关的描述。
        来自:
        帮助文档
        VPC终端节点
        用户指南
        终端节点服务管理
        创建终端节点服务
      • CSI插件
        本节介绍了:CSI的常见问题。 存储FAQCSI 本文主要介绍天翼云存储插件cstorcsi,其安装及使用过程中常见的问题及分析流程。 安装失败 失败原因查看 在“插件”——“插件市场”——选择“cstorcsi”插件安装,完成相关参数配置后点击“安装”;安装详情可以在“插件”——“插件实例”中看到cstorcsi实例,在状态栏查看实例运行状态,如果实例安装失败,可以通过查看状态栏的日志获取部署失败详情。 常见问题 查阅日志报 “no matches for kind “PodSecurityPolicy” in version“policy/v1beta1” 该报错见于在kubernetes v1.25集群上安装cstorcsi v3.1.0版本报错,报错原因是cstorcsi插件安装会部署PodSecurityPolicy资源,但该资源在k8s v1.25中被移除。该问题解决方案为: 1、将cstorcsi升级至3.2.0,按原参数安装即可; 2、如不希望进行组件升级,可以将cstorcsi v3.1.0 value.yaml中,将参数podSecurityPolicy.enabled配置为false,卸载后重新安装即可。 使用cstorcsi创建存储卷错误 通用分析流程 1、在“插件”——“插件实例”查看cstorcsi实例,运行是否异常; 2、进入“工作负载”——“无状态”,切换命名空间为“cstor”,查看名称为“cstorcsiprovisioner”的pod日志,切换容器名称为“csiprovisioner”和“cstorcsiplugin”,查看是否有错误日志输出。 常见问题 1、Can not get AK 该报错是由于cstorcsi安装过程中,未进行AK、SK配置。解决方案为:在”账号中心”——”安全设置”——”用户AccessKey”中查看AK、SK。 卸载cstorcsi后,选择重新安装该插件,在安装配置窗口中根据获得的 AK、SK值,分别填入AuthConfig.AK和AuthConfig.SK字段中,点击安装即可完成插件部署。 2、用户不允许订购按需类订单。 该报错是由于cstorcsi插件开通的云硬盘为按需付费方式,需要账户余额在100元以上才可正常开通。 解决方案:请检查天翼云“账户余额”是否在100元以上。 2、can not support RWX in filesystem mode for disk 当使用cstorcsi安装生成的storageclass,创建持久卷声明(PVC)。正常情况下,创建持久卷声明后,在“存储”——”持久卷”,列表栏会看到相应持久卷(PV)创建,并且状态为“已绑定”。 如果创建持久卷声明后,未发现相应持久卷创建,查看cstorcsiplugin日志输出为 can not support RWX in filesystem mode for disk,表示当前创建的持久卷声明,不支持访问模式为多机读写。 目前,cstorcsi插件安装,默认创建的云硬盘类型的storageclass,其访问模式与是否是共享盘有关,只有在使用共享盘的情况下,支持多机读写,其他情况仅支持单机读写。 解决方案:修改持久卷声明访问模式为“单机读写”。 3、failed to create disk volume, message: disk size should be in range [10G ,32T] 目前,当使用cstorcsi插件安装的storageclass,云硬盘类型要求容量为 [10G ,32T],文件存储要求容量500G以上。如果创建持久卷声明后,未发现相应持久卷创建,查看cstorcsiplugin日志输出为: failed to create disk volume, message: disk size should be in range [10G ,32T],表示当前创建的存储卷声明,其容量需要调整为合理范围大小。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        常见问题
        存储管理
        CSI插件
      • 记录弹性伸缩
        本文主要介绍如何记录弹性伸缩。 操作场景 弹性伸缩支持使用云审计记录服务资源操作。云审计记录的操作类型有三种,通过云平台帐户登录管理控制台执行的操作,通过云服务支持的API执行的操作,以及系统内部触发的操作。 如果用户开通了云审计,AS服务的API被调用时,调用信息将会上报到云审计,云审计会将操作信息定时的转储到用户指定的对象存储桶。通过云审计服务,您可以记录与弹性伸缩相关的操作事件,便于日后的查询、审计和回溯。 Cloud Trace Service中的AS信息 在您的应用系统中启用云审计服务后,将在日志文件记录对弹性伸缩执行的API调用的操作。您可以在云审计服务管理控制台查询近7天内的操作记录。如果需要保存7天之前的操作记录,您可以通过对象存储服务(Object Storage Service,以下简称OBS),将操作记录实时同步保存至OBS。 云审计服务支持的AS操作列表如下表所示。 表 云审计服务支持的AS操作列表 操作名称 资源类型 事件名称 创建伸缩组 scalinggroup createScalingGroup 修改伸缩组 scalinggroup modifyScalingGroup 删除伸缩组 scalinggroup deleteScalingGroup 启用伸缩组 scalinggroup enableScalingGroup 停用伸缩组 scalinggroup disableScalingGroup 操作伸缩组 scalinggroup operateScalingGroup 创建伸缩配置 scalingconfiguration createScalingConfiguration 删除伸缩配置 scalingconfiguration deleteScalingConfiguration 批量删除伸缩配置 scalingconfiguration batchDeleteScalingConfiguration 创建伸缩策略 scalingpolicy createScalingPolicy 修改伸缩策略 scalingpolicy modifyScalingPolicy 删除伸缩策略 scalingpolicy deleteScalingPolicy 启用伸缩策略 scalingpolicy enableScalingPolicy 停用伸缩策略 scalingpolicy disableScalingPolicy 执行伸缩策略 scalingpolicy executeScalingPolicy 操作伸缩策略 scalingpolicy operateScalingPolicy 批量启用伸缩策略 scalingpolicy batchEnableScalingPolicies 批量停用伸缩策略 scalingpolicy batchDisableScalingPolicies 移除实例 scalinginstance removeInstance 批量移除实例 scalinginstance batchRemoveInstances 批量添加实例 scalinginstance batchAddInstances 批量操作实例 scalinginstance batchOperateInstance 批量设置实例保护 scalinginstance batchProtectInstances 批量取消实例保护 scalinginstance batchUnprotectInstances 批量转入实例备用 scalinginstance batchEnterStandbyInstances
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩组和实例的监控
        记录弹性伸缩
      • 如何修复虚拟化驱动异常的Windows弹性云主机?
        本节介绍了使用故障类的问题描述和处理流程。 问题背景 Windows弹性云主机虚拟化驱动异常(Tools没有正常运行)。为保证弹性云主机的正常使用,请参见本节内容进行修复。 问题描述 弹性云主机虚拟化驱动异常会影响弹性云主机服务数据安全、可用性、系统性能。 具体影响的表现: 1. 可能导致弹性云主机文件系统损坏。 用户控制台单击“关机”、“重启”按钮,由于没有Tools,在云平台底层弹性云主机会被“强制关机”、“强制重启”。 2. 可能导致弹性云主机服务不可用。 虚拟化驱动异常的弹性云主机无法在物理机之间做热迁移,当物理机故障或做硬件维护时,弹性云主机无法被迁移到其他物理机,无法保证弹性云主机服务的高可用性。 3. 弹性云主机网络和存储性能降低。 虚拟化驱动对弹性云主机的网络、存储性能进行了优化,虚拟化驱动不正常时网络、存储性能降低。 操作场景 场景一: Windows弹性云主机未安装Tools。 场景二: 弹性云主机虚拟化驱动被卸载,导致虚拟化驱动无法正常运行。 操作步骤 Windows弹性云主机安装Tools的步骤: 1. 获取Tools安装包“pvdriverwindows.zip”。 请向管理员获取pvdriverwindows.zip升级包。 2. 解压缩安装包,双击setup.exe执行文件开始安装,安装过程类似如下图所示。 图 安装pvdriver 3. 单击“下一步”,选择是否接受许可。 4. 单击“Install”开始安装,安装进度显示如下图所示。 图 安装进度 5. 单击“Finish”,安装完成,如下图所示。 图 安装完成界面 6. 重启弹性云主机,如下图所示。 图 选择重启弹性云主机界面提示 7. 在弹性云主机桌面的右下角查看Tools是否正常,如果有黄色图标代表正常,如下图所示。 图 Tools状态正常
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        云主机管理
        使用故障类
        如何修复虚拟化驱动异常的Windows弹性云主机?
      • 概念类
        对比维度 云服务备份 镜像服务 概念 备份是将云主机或者云硬盘某一时间节点的状态、配置和数据信息保存下来,以供故障时进行恢复,其目的是为了保证数据安全,提升高可用性。 镜像相当于云服务器的“装机盘”,它提供了启动云服务器所需的所有信息,其目的是为了创建云服务器,批量部署软件环境。系统盘镜像包含运行业务所需的操作系统、应用软件,数据盘包含业务数据。整机镜像是系统盘镜像和数据盘镜像的总和。 使用方式 数据存储位置:与服务器/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建备份的云硬盘删除,对应的备份不会被同时删除。 数据存储位置:与服务器/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建镜像的服务器/磁盘删除,对应的镜像不会被同时删除。 使用方式 操作对象:保存云服务器/磁盘指定时刻的数据,可以设置自动备份和过期自动删除。 操作对象:可以将服务器的系统盘和数据盘制作为私有镜像,也可以通过外部镜像文件制作私有镜像。 使用方式 用途:备份可以恢复数据至原服务器/磁盘中,也可以直接创建新的磁盘或整机镜像。 用途:系统盘镜像或整机镜像可以创建新的服务器,数据盘镜像可以创建新的磁盘,实现业务迁移。 使用方式 是否可以导出至本地:否。 是否可以导出至本地:是。整机镜像不支持导出至本地。 应用场景 数据备份和恢复 服务器上云或云上迁移 应用场景 数据备份和恢复 部署特定软件环境 应用场景 数据备份和恢复 批量部署软件环境 应用场景 数据备份和恢复 服务器运行环境备份 优势 支持自动备份,可以定时定量保留服务器/磁盘某一时间节点的数据 可以备份系统盘。可以将本地或者其他云平台的服务器数据盘镜像文件导入至镜像服务中。导入后,可使用该镜像创建新的云硬盘。
        来自:
        帮助文档
        云服务备份
        常见问题
        概念类
      • 步骤一:创建实例
        本页介绍了在关系数据库MySQL版服务的管理控制台创建实例的过程。 背景信息 您可以根据业务需要定制相应计算能力和存储空间的关系型数据库实例,其中,计费模式支持包年包月(包周期)和按需计费。 创建实例时,系统默认开启自动备份策略。 实例创建成功后,您可以根据实际情况修改,具体操作,请参见修改备份策略。 数据库端口默认为13049。您也可在订购页自定义端口。 实例创建成功后,您可以根据实际情况修改,具体操作,请参见修改数据库端口。 操作步骤 1. 进入数据库实例订购页面。 方法一: 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 注意 如需要对II 类型资源池广州4、苏州进行实例创建和管理,需要先在控制台的实例列表页面的左上角单击数据库资源池切换,并选择对应的资源池,然后进行管理和订购等操作。 3. 在实例列表上方,单击创建实例,进入数据库实例订购页面。 方法二: 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击立即开通,进入数据库实例订购页面。 2. 在顶部菜单栏,选择区域和项目。 2. 根据实际情况,配置如下实例相关参数。 模块 参数 描述 基本信息 组件引擎和版本 选择数据库组件引擎和版本: 说明 选用MySQL数据库时,请根据实际业务需求选择合适的数据库引擎版本。建议您选择当前可用的最高版本数据库,因其性能更稳定,安全性更高,使用更可靠。 引擎:MySQL 版本:5.7或者8.0 基本信息 区域 租户当前所在区域。支持在顶部菜单栏左上角切换到其他区域。 注意 不同区域内的产品内网不互通,且购买后不能更换,请谨慎选择。 基本信息 计费模式 选择计费模式: 包年/包月:若选择该模式,则按照购买时长进行计费,一次性扣除。 按需计费:若选择该模式,则会从余额中进行扣除费用。 基本信息 模式 选择实例模式: 非MGR:实例类型可以选择单机版、一主一备和一主两备。 MGR:模式选择MGR后,实例类型默认只能选择一主两备 。更多MGR集群信息,请参见MGR集群。 基本信息 实例类型 根据具体的业务需求选择对应的实例类型。详细的实例类型信息,请参见实例类型。 基本信息 可用区 选择实例所在的可用区。针对支持多可用区的资源池,您可以将订购的非单机版实例节点分布在不同的可用区,即跨可用区部署实例。一个可用区不受其他可用区故障的影响,保证您数据库服务的可用性。 注意 跨可用区功能仅II类型资源池中的部分资源池支持,I类型资源池不支持该功能,以订购页实际显示为准。更多资源池信息,请参见功能概览。 规格与存储 CPU类型 部分资源池提供了X86和ARM架构,具体资源池加载情况以实际受理页为准。 规格与存储 性能类型 支持选择通用型、计算增强型和内存优化型的主机类型。关于各主机类型具体说明和适用场景,请参见实例规格。 说明 对应的主机类型提供对应六代机或七代机,目前七代机的表现整体优于六代机。 规格与存储 性能规格 选择实例的CPU和内存。不同性能规格对应不同连接数和最大IOPS。 创建成功后,支持进行规格变更。 规格与存储 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。具体存储类型差异,请参见实例存储类型。 规格与存储 存储空间 您申请的存储空间会有必要的文件系统开销,这些开销包括索引节点和保留块,以及数据库运行必需的空间。存储空间支持100GB到32TB,您选择的容量大小必须为10的整数倍。 存储空间自动扩展:可选择开通自动扩容,开通后实例将根据选择的阈值进行自动扩展,无需担心空间满问题,建议扩容上限值设置大一些,以备不时之需。 磁盘加密:可选择磁盘是否加密,有效保护数据安全,此项功能仅支持在订购时进行设置,在控制台暂不支持设置。 注意 磁盘加密功能仅II类型资源池中的部分资源池支持,I类型资源池不支持该功能,以订购页实际显示为准。更多资源池信息,请参见功能概览。 规格与存储 备份空间 如果备份类型是云硬盘方式,备份空间大小需要大于等于存储空间。 如果备份类型是对象存储方式,默认会赠送和订购时选择的存储空间大小相等的对象存储空间。 注意 对象存储方式仅II类型资源池中的部分资源池支持,I类型资源池不支持该方式,以订购页实际显示为准。更多资源池信息,请参见功能概览。 免费备份空间额度仅与首次购买的存储空间大小绑定,后续扩容不额外增加免费额度。 备份空间实际用量超过免费额度时,系统将自动对超出部分按标准费率计费。 企业项目 企业项目 企业项目权限实现细粒度控制。将云资源、企业成员按企业项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,用户使用企业项目内云资源的权限受用户组的权限限制。 网络 虚拟私有云 关系数据库MySQL版实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您需要创建或选择所需的虚拟私有云。如何创建虚拟私有云,请参见创建虚拟私有云VPC。 如果没有可选的虚拟私有云,关系型数据库服务默认为您分配资源。 注意 目前关系数据库MySQL版实例创建完成后不支持切换虚拟私有云,请谨慎选择所属虚拟私有云。 网络 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全性。子网在可用区内才会有效,创建关系数据库MySQL版实例的子网默认开启DHCP功能,不可关闭。 创建实例时关系数据库MySQL版会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址可修改。 网络 IP地址 创建实例时RDS会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址不可修改。 注意 手动输入指定IP地址功能仅II类型资源池支持,I类型资源池不支持该功能,以订购页实际显示为准。更多资源池信息,请参见功能概览。 网络 安全组 安全组限制实例的安全访问规则,加强关系数据库MySQL版服务与其他服务间的安全访问。请确保所选取的安全组允许客户端访问数据库实例。 如果不创建安全组或没有可选的安全组,关系数据库MySQL版服务默认为您分配安全组资源。 集群配置 实例名称 长度为4~64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 集群配置 设置密码 您可以在订购的时候设置密码,也可以选择在创建后进行设置密码,提高订购开通效率。 集群配置 管理员账号 数据库的登录名默认为root。 集群配置 管理员密码 长度为8~26位,需为字母、数字和特殊字符~!@
        来自:
        帮助文档
        关系数据库MySQL版
        快速入门
        通过公网连接MySQL实例
        步骤一:创建实例
      • 准备工作
        (可选)创建虚拟私有云 虚拟私有云为CCE集群提供一个隔离的、用户自主配置和管理的虚拟网络环境。 创建首个集群前,您必须先确保已存在虚拟私有云,否则无法创建集群。 若您已有虚拟私有云,可重复使用,无需重复创建。 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“网络 > 虚拟私有云”。 步骤 4 单击“创建虚拟私有云”。 步骤 5 在“创建虚拟私有云”页面,根据界面提示配置虚拟私有云参数。 创建虚拟私有云时会同时创建一个默认子网,您还可以单击“添加子网”创建多个子网。 步骤 6 单击“立即创建”。 (可选)创建密钥对 云平台使用公共密钥密码术来保护您的云容器引擎节点的登录信息,密码或密钥对用于远程登录节点时的身份认证。 如果选择密钥登录方式,您需要在创建云容器引擎的集群节点时指定密钥对的名称,然后在SSH登录时提供私钥。 如果选择密码登录方式,可以跳过该任务。 说明 如果您计划在多个区域创建实例,则需要在每个区域中创建密钥对。 通过管理控制台创建密钥对 如果您尚未创建密钥对,可以通过管理控制台自行创建。步骤如下: 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“计算 > 弹性云主机”。 步骤 4 在左侧导航树中,选择“密钥对”。 步骤 5 在“密钥对”页面,单击“创建密钥对”。 步骤 6 输入密钥名称,单击“确定”。 步骤 7 密钥名称由两部分组成:KeyPair4位随机数字,使用一个容易记住的名称,如KeyPairxxxxecs。 步骤 8 您的浏览器会提示您下载或自动下载私钥文件。文件名是您为密钥对指定的名称,文件扩展名为“.pem”。请将私钥文件保存在安全位置。然后在系统弹出的提示框中单击“确定”。 说明 这是您保存私钥文件的唯一机会,请妥善保管。当您创建弹性云主机时,您将需要提供密钥对的名称;每次SSH登录到弹性云主机时,您将需要提供相应的私钥。
        来自:
        帮助文档
        云容器引擎
        快速入门
        准备工作
      • 1
      • ...
      • 278
      • 279
      • 280
      • 281
      • 282
      • ...
      • 310
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      一站式智算服务平台

      推荐文档

      产品变更

      产品功能

      创建程序包

      如何申请发票?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号