活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      容器镜像服务_相关内容
      • 查看流控监控
        本文主要介绍 查看流控监控。 本章节指导您在控制台查看每个代理上用户/客户端/Topic的流控使用量。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控监控”,进入流控监控页面。 步骤 6 设置查询流控的参数。 表查询流控的参数说明 参数 说明 :: 统计方式 设置流控的统计方式。 前n个:统计带宽使用量排名前x 个的用户/客户端/Topic,x由您自行输入 带宽速率:统计带宽速率大于x MB/s的用户/客户端/Topic,x由您自行输入 带宽使用量:统计带宽使用量超过x %的用户/客户端/Topic,x由您自行输入 统计类型 设置流控的统计类型。 生产:统计生产消息的流控 消费:统计消费消息的流控 统计维度 设置流控的统计维度。 User/Client:统计用户/客户端的流控 Topic:统计Topic的流控 图 查询流控的参数 步骤 7 单击“查询”,查看每个代理上用户/客户端/Topic的流控使用量。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        查看流控监控
      • 创建流控
        创建Topic流控 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在页面顶端单击“Topic”,进入“Topic”页签。 步骤 7 在页面左上角单击“创建流控”,弹出“创建流控”对话框。 步骤 8 设置流控参数。 表 流控参数说明 参数名称 说明 Topic名称 输入指定Topic名称,对此Topic进行流控。流控创建完后,无法修改“Topic名称”。 生产上限速率 设置生产上限速率,单位为MB/s。为空时,表示不设置速率。 消费上限速率 设置消费上限速率,单位为MB/s。为空时,表示不设置速率。 说明 “生产上限速率”和“消费上限速率”不可同时为空。 步骤 9 单击“确定”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示流控创建成功。 进入“流控管理 > 流控列表”页面,在“Topic”页签中,在页面右上角的搜索框中输入新创建的流控名称,单击,查看新创建的流控。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        创建流控
      • 重置SASL_SSL密码
        本文主要介绍重置SASLSSL密码。 操作场景 在“用户管理”页签创建的SASLSSL用户,如果忘记了SASLSSL密码,通过重置SASLSSL密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 如果忘记了创建实例时设置的SASLSSL密码,请参考重置Kafka密码,重置密码。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置SASLSSL密码。 只有处于“运行中”状态的Kafka实例支持重置SASLSSL密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击待重置SASLSSL密码的Kafka实例名称,进入实例详情页面。 步骤 5 在“用户管理”页签,在待重置SASLSSL密码的用户所在行,单击“重置密码”。 步骤 6 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        SASL_SSL用户管理
        重置SASL_SSL密码
      • 步骤一:准备环境
        本文主要介绍分布式消息服务RabbitMQ的准备环境。 虚拟私有云 虚拟私有云(Virtual Private Cloud,以下简称VPC)为RabbitMQ专享版实例提供一个隔离的、用户自主配置和管理的虚拟网络环境。 1. 在创建RabbitMQ专享版实例前,确保已存在可用的虚拟私有云和子网。 创建方法,请参考创建虚拟私有云和子网。如果您已有虚拟私有云和子网,可重复使用,不需要多次创建。 在创建VPC和子网时应注意如下要求: 创建的VPC与使用的RabbitMQ服务应在相同的区域。 创建VPC和子网时,如无特殊需求,配置参数使用默认配置即可。 2. 在创建RabbitMQ专享版实例前,确保已存在可用的安全组。 创建方法,请参考创建安全组。如果您已有安全组,可重复使用,不需要多次创建。 使用RabbitMQ实例前,添加表1所示安全组规则,其他规则请根据实际需要添加。 表1 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 5672 0.0.0.0/0 访问RabbitMQ实例(关闭SSL加密) 入方向 TCP 5671 0.0.0.0/0 访问RabbitMQ实例(开启SSL加密) 入方向 TCP 15672 0.0.0.0/0 访问Web界面UI地址(关闭SSL加密) 入方向 TCP 15671 0.0.0.0/0 访问Web界面UI地址(开启SSL加密) 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问RabbitMQ实例,无需添加上表中的规则。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤一:准备环境
      • 重置Kafka密码
        本文主要介绍 重置Kafka密码。 操作场景 如果您忘记了创建实例时设置的SASLSSL密码,通过重置Kafka密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置Kafka密码。 只有处于“运行中”状态的Kafka实例支持重置Kafka密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重置Kafka密码。 在需要重置Kafka密码的Kafka实例右侧,单击“更多 > 重置Kafka密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,在“连接信息 > 用户名”后,单击“重置密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“用户管理”页签,在待重置Kafka密码的用户所在行,单击“重置密码”,弹出重置Kafka密码对话框。 步骤 5 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重置Kafka密码
      • 集群版初始化
        本节主要介绍HBlock集群版如何初始化。 填写初始化相关信息 1. 设置基本信息。 参数 描述 版本规格 版本规格: 免费版:基础功能永久免费使用,高级功能默认禁用,提供一次30天免费试用机会。免费版的软件升级功能将在2年后自动失效。导入商业版软件许可证可激活全部功能。 商业版:提供30天全功能试用,到期后部分管理功能将被锁定。导入商业版软件许可证可激活全部功能。 说明 免费版与商业版的功能差别详见商业版与免费版。 系统名称 指定HBlock名称。 字符串形式,长度范围是1~64,可以包含字母、数字、下划线()和短横线(),字母区分大小写,且仅支持以字母或数字开头。 登录用户名 HBlock管理员用户名。 类型:字符串 取值:长度范围是5~16,只能由数字和字母组成,字母区分大小写。默认值为storuser。 登录密码 设置管理员密码。初始化时必须设置密码。 字符串形式,长度范围8~16,至少包含以下字符中的3种:大写字母、小写字母、数字、特殊字符 (~ ! @ $ % ^ & ( ) + [ ] { } ; : , . / ?),区分大小写。不能包含:3个连续重复的字符,3个连续或反序的数字、或字母(不区分大小写),3个连续或反序的键盘序列(不区分大小写)。 2. 设置集群拓扑。 拓扑方式可以选择“拓扑文件”或者“服务器”,二选一。 拓扑文件方式 参数 描述 拓扑文件 导入集群拓扑文件。 拓扑文件为符合UTF8编码格式的JSON文件,详见集群拓扑文件。 服务器方式 :点击“添加服务器”,填写服务器信息。 参数 描述 节点名称 指定服务器节点名称。 取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 默认使用服务器ID作为节点名称。 服务器IP 要初始化服务器的IP,支持IPv4和IPv6地址。 端口号 API端口号。 注意 需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录 服务器中,用于存储用户数据的绝对路径。 可以输入一个或多个数据目录,以英文逗号(,)隔开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 容量(可用/总) 数据目录所在磁盘的可用容量和总容量。 容量配额 数据目录的容量配额,即给HBlock分配的容量配额。一旦达到配额,就立刻阻止数据写入。 支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作 校验:校验数据目录是否可用。 修改:修改数据目录。 移除:移除数据目录。 3. 设置故障域服务器方式: 设置基础存储池的故障域级别(仅集群版支持)。初始化时设置的集群拓扑中,包含的数据目录节点都加入到基础存储池中。可以选择:数据目录级别的故障域、服务器级别的故障域、机架级别的故障域、机房级别的故障域。 注意 如果故障域级别为机架或者机房,则必须使用拓扑文件导入方式进行初始化。 4. 设置网络 参数 描述 业务网络 该网段用于业务与系统之间的数据传输。IP CIDR格式。 如果指定业务网络,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP和客户端进行通信。 如果未指定业务网络,或指定了业务网络,但指定的网段与服务器所有IP均不相符,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 集群网络 用于系统内部数据传输。IP CIDR格式。 如果指定集群网络,为了保证HBlock的各个服务器之间能够正常通信,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP进行通信。 如果未指定集群网络,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 5. 设置端口。 系统使用指定端口及端口范围进行初始化,如都未指定,则使用默认端口。 注意 请确保Linux用户具有所需要端口的权限。Linux系统默认小于1024的端口不对没有root权限的Linux普通用户开放。 设置端口范围时,请避免和Linux系统的本地临时端口(iplocalportrange)范围重合,否则可能会导致HBlock服务所用的端口被占用。使用命令行cat /proc/sys/net/ipv4/iplocalportrange可以查看本地临时端口范围。 参数 描述 端口范围 未指定端口的服务将从此范围中自动取值。 取值:整型,取值为[1, 65535]。默认取值为2000020500。 说明 建议指定的端口范围至少包含500个端口。 iSCSI服务 指定iSCSI端口号。 取值:整型,取值为[1, 65535],默认端口号为3260。 数据服务 指定数据服务端口号。 取值:整型,取值为[1, 65535]。 管理服务 指定管理服务端口号。 取值:整型,取值为[1, 65535]。 元数据服务 指定元数据服务端口号。 取值:整型,取值为[1, 65535]。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        初始化HBlock
        集群版初始化
      • 删除集群(按需计费)
        本文主要介绍 删除集群(按需计费)。 操作场景 本章节以计费模式为“按需计费”的CCE集群为例,介绍如何删除集群。 包周期的集群支持退订操作,详情请参见退订释放集群(包年/包月)。 注意事项 删除集群时,纳管以及包周期节点将会从集群中移除并重装系统,节点原有的登录密码将会失效,请重新设置节点密码。 删除集群不会删除集群下包周期的资源,相关资源在集群删除后将会继续计费,请妥善处理。 删除集群会删除集群下的节点(纳管节点不会被删除)、节点挂载的数据盘、工作负载与服务,相关业务将无法恢复。在执行操作前,请确保相关数据已完成备份或者迁移,删除完成后数据无法找回,请谨慎操作。 部分不是在CCE中创建的资源不会删除: 纳管的节点(仅删除在CCE中创建的节点) Service和Ingress关联的ELB实例(仅删除自动创建的ELB实例) 手动创建PV关联的云存储/导入的云存储(仅删除PVC自动创建的云存储) 处于休眠状态的集群无法直接删除,请将集群唤醒后重试。 集群不可用时删除集群,存储会残留。 集群版本为v1.13.10及之前版本时,请勿在ELB服务手动修改监听器名称和后端服务器名称,否则删除集群会有资源残留。 操作步骤 步骤 1 登录CCE控制台,在左侧导航栏中选择“集群管理”。 步骤 2 单击待删除集群后的。 图 删除集群 步骤 3 在弹出的“删除集群”窗口中,根据系统提示,勾选删除集群时需要释放的资源。 删除集群下工作负载挂载的云存储 说明 删除集群中的存储卷声明和存储卷,存在如下约束: 1. 底层存储依据指定的回收策略进行删除。 2. 对象存储桶下存在大量文件(超过1000)时,请先手动清理桶内文件后再执行集群删除操作。 删除集群下负载均衡ELB等网络资源(仅删除自动创建的ELB资源) 步骤 4 单击“是”,开始执行删除集群操作。 删除集群需要花费1~3分钟,请耐心等候。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        管理集群
        删除集群(按需计费)
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • SDK接入指南(1)
        参数名 类型 必需 说明 apiKey string 是 控制台上的AccessKey ID apiSecret string 是 控制台上的AccessKey Secret desktopCode string 是 桌面编码,控制台可查看 serviceURL string 否 服务地址,默认
        来自:
      • 添加HTTPS监听器
        负载方式&健康检查配置 说明 负载方式 从下拉列表框选择负载方式 轮询算法:请求以轮询的方式依次分发给各后端主机,加权轮询对权重高的主机会获得更多的轮询次数。 最小连接算法:动态调度算法,通过主机当前活跃的连接数来评估主机的负载情况,负载均衡将请求分发给活跃连接数最小的后端主机。加权最小连接数会结合权重分配后端主机。 会话保持 选择是否开启会话保持。开启会话保持后,负载均衡监听器会把来自同一客户端的访问请求分发到同一台后端主机上。 会话保持方式 集群模式资源池HTTPS协议的会话保持方式如下: 重写Cookie/植入Cookie。 植入Cookie:客户端首次访问时,负载均衡在返回请求中植入Cookie(即在HTTP或HTTPS响应报文中插入ServerID),下次客户端携带此Cookie访问,负载均衡会将请求转发给之前记录到的后端云主机上。植入Cookie需要指定会话保持时间。 重写Cookie(APPCOOKIE):负载均衡对用户自定义的Cookie进行重写,下次客户端携带新的Cookie访问,负载均衡会将请求转发给之前记录到的后端云主机。 选择植入Cookie时,可设置会话保持超时时间。缺省3600s。 选择重写Cookie,负载均衡发现用户自定义的Cookie,对原来的Cookie进行重写,下次客户端携带新的Cookie访问,负载均衡服务将请求定向转发给之前记录到的后端主机。重写Cookie方式该Cookie的会话保持时间由后端主机维护。 健康检查 开启健康检查,负载均衡对后端主机的服务状态进行探测。负载均衡将不会分发流量给服务异常的主机。 健康检查类型 可选HTTP或TCP。 间隔时间 健康检查的检查间隔,缺省5s。 超时时间 健康检查超时时间,缺省2s。 最大重试次数 健康检查的重试次数,缺省2,连续检查失败达到重试次数,则判断健康检查失败。 检查路径 可设置HTTP健康检查的路径,长度范围1~80 以‘/’开头,可包含数字、大小写字母或‘/’,路径中可包含‘’ ‘’ ‘.’ ‘’ HTTP方法 可选GET或HEAD。 HTTP状态码 选择HTTP健康检查范围的状态码,可选http2xx,http3xx,http4xx,http5xx。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        添加监听器
        添加HTTPS监听器
      • 终端节点监控
        本文帮助您了解如何查看终端节点相关的监控图表数据并设置告警规则,约定在一些特殊情况出现时向用户发送告警通知。 操作场景 VPC终端节点监控支持终端节点维度的监控。您可以通过云监控依据细颗粒度的监控指标获得有关终端节点的各种监控数据信息, 也可以通过设置适当的报警阈值和报警策略,及时发现并处理潜在的问题。 使用须知 云监控服务不需要开通,会在您使用VPC终端节点服务后自动启动。 查看监控数据 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择地域,以下操作选择华东华东1。 3. 在控制台首页,选择“管理与部署>云监控”。 4. 在云监控控制台左侧导航栏,点击“VPC终端节点监控”,即可进入VPC终端节点服务监控页面。 5. 在VPC终端节点监控页面选择终端节点页签,点击要查看的终端节点的名称/ID进入该终端节点监控详情页面。 6. 在终端节点监控数据界面中,可查看该终端节点的各项监控指标,分别为流入带宽、流出带宽、流入数据包速率、流出数据包速率、流入丢弃带宽、流出丢弃带宽、流入丢弃数据包速率、流出丢弃数据包速率、并发连接。 监控指标说明 这些监控指标可以帮助您了解终端节点的网络性能以及数据流量情况。 监控指标 说明 流入带宽 终端节点流入的数据带宽大小。 流出带宽 终端节点流出的数据带宽大小。 流入数据包速率 终端节点每秒钟流入的数据包数量。 流出数据包速率 终端节点每秒钟流出的数据包数量。 流入丢弃带宽 终端节点流入时被丢弃的数据带宽大小。 流出丢弃带宽 终端节点流出时被丢弃的数据带宽大小。 流入丢弃数据包速率 终端节点每秒钟流入时被丢弃的数据包数量。 流出丢弃数据包速率 终端节点每秒钟流出时被丢弃的数据包数量。 并发连接 终端节点的并发连接数。
        来自:
        帮助文档
        VPC终端节点
        用户指南
        终端节点管理
        终端节点监控
      • GPU监控
        通过弹性云主机控制台查看GPU监控项 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“计算 > 弹性云主机”。 4. 在弹性云主机列表页点击某一GPU云主机的主机名称进入主机详情页。 5. 点击“监控”tab,选择“GPU使用率”或"显存使用率"即可查看该台GPU云主机下全部显卡的这两个GPU监控项。 通过云监控控制台查看GPU监控项 目前有两种方式可以进入云监控控制台查看GPU监控项,具体如下: 方式一 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“计算 > 弹性云主机”。 4. 在弹性云主机列表页点击某一GPU云主机的主机名称进入主机详情页。 5. 点击“监控”tab,点击"查看更多监控指标详情"跳转至云主机监控控制台。 6. 点击“操作系统监控>GPU”,查看全量的GPU监控项。若该台GPU云主机挂载了多块显卡,则可在下拉框中选择对应的GPU查看该GPU的GPU使用率、GPU显存使用量、GPU显存使用率、GPU温度、GPU功耗。 方式二 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“管理与部署> 云监控”。 4. 单击"主机监控>云主机监控",进入云主机监控列表页。 5. 选中所要查看的GPU云主机,点击“操作>查看监控图标”,进入云主机监控详情页。 6. 点击“监控”tab,点击"查看更多监控指标详情"跳转至云主机监控控制台。 7. 若该台GPU云主机挂载了多块显卡,则可在下拉框中选择对应的GPU查看该GPU的GPU使用率、GPU显存使用量、GPU显存使用率、GPU温度、GPU功耗。 注意 1. 如未安装驱动则GPU监控项将为空,请您安装驱动。 2. 目前图形加速基础型GPU云主机的GPU温度、GPU功率为空,无法提供监控告警。
        来自:
        帮助文档
        GPU云主机
        用户指南
        管理GPU云主机
        GPU监控
      • 动作活体识别
        返回值示例 请求成功返回值示例 plaintext { "statusCode": 0, "message": "success", "returnObj": { "eye": "True", "faceleft": "False", "faceright": "False", "faceupdown": "False", "mouth": "False", "valid": "True" } } 请求失败返回值示例 plaintext { "statusCode": 500001, "message": "服务接口异常,请联系管理员", "details": "需要联系管理员处理", "error":"AIOP500001" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 6 位错误码。4 开头为业务错误码,5 开头为服务错误码。 错误码 错误信息 错误描述 CTAPI10000 API Not Found CTAPI0009 无效json的body参数 AIOP400005 请求体类型错误 请求体需为字典,不能为其他类型 AIOP400006 必传的参数未传 必须的参数(Action、ActionType 或 VideoBase64)未传 AIOP400008 请求体的参数字段类型错误 Action 字段应该是 string 类型 VideoBase64 字段应该是 string 类型 ActionType 字段应该是 string 类型 AIOP400009 请求体的参数字段值为空 Action、ActionType 或 VideoBase64 字段值为空字符 AIOP400010 请求体的参数字段值设置错误 Action、ActionType 值设置错误 AIOP400011 视频时长不符合要求 视频时长不符合要求,限制为 1 ~ 8秒 AIOP400012 视频编码后大小不符合要求 视频编码后大小不符合要求,要求小于11M AIOP400013 视频帧率不符合要求 视频帧率限制为 10fps ~ 30fps AIOP400015 视频封装格式不符合要求 视频封装格式请参考接口文档说明 AIOP400016 视频读取失败 视频文件损坏读取失败 AIOP400017 视频Base64数据处理异常 视频Base64字符串转换字节码异常 AIOP400018 视频未检测到人脸 视频未检测到人脸 AIOP400019 视频光线过暗 视频光线过暗,请提高亮度 AIOP400020 视频光线过亮 视频光线过亮,请降低亮度 AIOP400021 视频清晰度过低 视频清晰度过低,请提高清晰度 AIOP500001 服务接口异常,请联系管理员 需要联系管理员处理
        来自:
        帮助文档
        人脸识别
        API参考
        API
        动作活体识别
      • 约束与限制
        本文主要介绍约束与限制 测试资源组的说明与使用约束 测试资源组包含共享资源组和私有资源组两种类型,共享资源组为系统默认提供,私有资源组需要自行创建。 共享资源组的执行节点已绑定弹性IP,当被测应用有网络访问限制时,建议创建私有资源组。 当并发大于10000或者40000QPS或者总带宽大于100Mb时,建议创建私有资源组。 JMeter测试任务只可以使用私有资源组。 节点使用建议 用于测试资源组的节点不要运行任何应用或做其他用途,可能会导致应用运行异常。 至少需要2台空节点,1台用于压测资源组的调试机(即调试执行机的节点),1台用于压测资源组的执行机(即在压测过程中能够提供自身性能数据的施压目标机器)。请根据需要压测的并发用户数,创建对应规格的节点,节点规格推荐请参考下表。 如需要压测外部服务,请为执行节点绑定弹性IP。如需要调试外部服务,请为调试节点和执行节点都绑定弹性IP。 节点规格推荐 并发用户数 所需规格 数量 ::: 05000 调试节点:4U8G 1 05000 执行节点:4U8G 1 500110000 调试节点:4U8G 1 500110000 执行节点:8U16G 1 1000120000 调试节点:4U8G 1 1000120000 执行节点:8U16G 2 2000130000 调试节点:4U8G 1 2000130000 执行节点:8U16G 3 3000140000 调试节点:4U8G 1 3000140000 执行节点:8U16G 4 4000150000 调试节点:4U8G 1 4000150000 执行节点:8U16G 5 50001以上 调试节点:4U8G 1 50001以上 执行节点:8U16G 说明 每台8U16G的执行节点可支撑10000并发。 说明 以上节点规格推荐是通用规格,仅供参考。实际压测时,资源规格的需求受思考时间、压测的协议类型、请求和响应的大小数量、响应时间、结果验证等因素影响,用户可根据实际情况进行调整。 压测外部服务时,执行节点需要绑定弹性IP,测试带宽受限于创建的EIP带宽。 当集群上的节点已经被部署上了应用,创建私有资源组时,该节点无法被选用。 JMeter引擎不适用该规格。
        来自:
      • 资源组管理类
        本文主要介绍资源组管理类问题 测试资源配置建议 测试资源组的说明与使用约束 测试资源组包含共享资源组和私有资源组两种类型,共享资源组为系统默认提供,私有资源组需要自行创建。 共享资源组的执行节点已绑定弹性IP,当被测应用有网络访问限制时,建议创建私有资源组。 当并发大于10000或者40000QPS或者总带宽大于100Mb时,建议创建私有资源组。 JMeter测试任务只可以使用私有资源组。 节点使用建议 用于测试资源组的节点不要运行任何应用或做其他用途,可能会导致应用运行异常。 至少需要2台空节点,1台用于压测资源组的调试机(即调试执行机的节点),1台用于压测资源组的执行机(即在压测过程中能够提供自身性能数据的施压目标机器)。请根据需要压测的并发用户数,创建对应规格的节点,节点规格推荐请参考下表。 如需要压测外部服务,请为执行节点绑定弹性IP。如需要调试外部服务,请为调试节点和执行节点都绑定弹性IP。 节点规格推荐 并发用户数 所需规格 数量 ::: 05000 调试节点:4U8G 1 05000 执行节点:4U8G 1 500110000 调试节点:4U8G 1 500110000 执行节点:8U16G 1 1000120000 调试节点:4U8G 1 1000120000 执行节点:8U16G 2 2000130000 调试节点:4U8G 1 2000130000 执行节点:8U16G 3 3000140000 调试节点:4U8G 1 3000140000 执行节点:8U16G 4 4000150000 调试节点:4U8G 1 4000150000 执行节点:8U16G 5 50001以上 调试节点:4U8G 1 50001以上 执行节点:8U16G n 说明 每台8U16G的执行节点可支撑10000并发。 说明 以上节点规格推荐是通用规格,仅供参考。实际压测时,资源规格的需求受思考时间、压测的协议类型、请求和响应的大小数量、响应时间、结果验证等因素影响,用户可根据实际情况进行调整。 压测外部服务时,执行节点需要绑定弹性IP,测试带宽受限于创建的EIP带宽。 当集群上的节点已经被部署上了应用,创建私有资源组时,该节点无法被选用。 JMeter引擎不适用该规格。
        来自:
        帮助文档
        性能测试PTS
        常见问题
        资源组管理类
      • 创建函数流触发器
        本章介绍如何创建函数流触发器 本节介绍创建函数流触发器,函数流触发器当前支持APIG触发器、定时触发器。 创建定时触发器 1. 登录FunctionGraph控制台,进入“函数流”页面。 2. 在“函数流”流程列表页面,选择需要创建触发器的流程,单击“编辑”,进入编辑页面。 3. 单击“开始”节点,在右侧弹出的属性页面添加触发器,触发器类型选择“定时触发器”。 4. 填写触发器配置信息。如下表所示,带参数为必填项。 定时触发器配置信息 配置项 说明 触发规则 定时触发器的触发规则,当前只支持Cron表达式 Cron表达式 用于表示任务调度的表达式,能够表示特定周期进行的特定的时间、日期等。 附加信息 附加信息为json格式,输入必须包含input,在input内输入需要的json体。 input的内容会作为流程的输入参数。 5. 单击“创建”,完成定时触发器创建。 创建APIG(共享版)触发器 说明 首次使用API网关的用户不再支持共享版服务,老用户仍可继续使用共享版服务。即API网关当前已不提供共享版,目前只有存量用户可以使用共享版。 函数流APIG触发器目前仅支持IAM认证方式。 1. 登录FunctionGraph控制台,进入“函数流”页面。 2. 在“函数流”流程列表页面,选择需要创建触发器的流程,单击“编辑”,进入编辑页面。 3. 单击“开始”节点,在右侧弹出的属性页面添加触发器,触发器类型选择“APIG触发器(共享版)”。 4. 填写触发器配置信息。如下表所示,带参数为必填项。 5. 单击“创建”,完成APIG(共享版)触发器创建。 APIG触发器(共享版)信息 字段 填写说明 分组 API分组相当于一个API集合,API提供方以API分组为单位,管理分组内的所有API。 选择“APIGrouptest”。 发布环境 API可以同时提供给不同的场景调用,如生产、测试或开发。 API网关服务提供环境管理,在不同的环境定义不同的API调用路径。 选择“RELEASE”,才能调用。 API类型 API类型: 路径 接口请求的路径。 格式如:/users/projects 请求方式 接口调用方式:GET、POST、DELETE、PUT、PATCH、HEAD、OPTIONS、ANY 其中ANY表示该API支持任意请求方法。
        来自:
        帮助文档
        函数工作流
        用户指南
        函数流管理
        创建函数流触发器
      • 修改RDS for PostgreSQL实例参数
        本章节会介绍RDS for PostgreSQL如何修改实例参数 为确保关系型数据库服务发挥出最优性能,用户可根据业务需求对用户创建的参数模板中的参数进行调整。 您可以修改用户创建的数据库参数模板中的参数值,但不能更改默认数据库参数模板中的参数值。对用户创建的参数模板参数模板中的参数所做的更改,将应用于与此数据库参数模板关联的所有数据库实例。 如果您更改一个参数值,则所做更改的应用时间将由该参数的类型决定。 关系型数据库服务的管理控制台显示与数据库实例关联的数据库参数模板的状态。例如,如果数据库实例未使用与其关联的数据库参数模板所做的最新更改,则关系型数据库服务的管理控制台将显示状态为“参数变更,等待重启”。您将需要手动重启数据库实例,以使最新的参数更改对该数据库实例生效。 说明 系统提供的默认参数模板不允许修改,只可单击参数模板名进行查看。当用户参数设置不合理导致数据库无法启动时,可参考默认参数模板重新配置。 修改当前实例的参数 步骤1:登录管理控制台。 步骤2:单击管理控制台左上角的,选择区域和项目。 步骤3:选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4:在“实例管理”页面,选择指定的实例,单击实例名称。 步骤5:在左侧导航栏中选择“参数修改”,在“参数”页签修改相应参数。 可进行的操作如下: 注意 根据参数列表中“是否需要重启”提示,进行相应操作: 是:在实例列表中,查看“运行状态”,如果显示“参数变更,等待重启”,则需重启实例使之生效。 修改主实例的某些参数(如果是主备实例,备实例的参数也会被同步修改),需重启主实例使之生效。 修改只读实例的某些参数,需要重启该只读实例使之生效。 否:无需重启,立即生效。 单击“保存”,在弹出框中单击“确定”,保存修改。 单击“取消”,放弃本次设置。 单击“预览”,可对比参数修改前和修改后的值。 参数修改完成后,您可查看参数修改历史。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        参数模板管理
        修改RDS for PostgreSQL实例参数
      • 设置自动备份策略
        本章节介绍如何设置自动备份策略。 操作场景 创建关系型数据库实例时,系统默认开启自动备份策略,用户也可以关闭备份,但是对于生产环境,强烈推荐开启备份,因为恢复功能依赖备份的打开。实例创建成功后,您可根据业务需要设置自动备份策略。关系型数据库服务按照用户设置的自动备份策略对数据库进行备份。 关系型数据库服务的备份操作是实例级的,而不是数据库级的。当数据库故障或数据损坏时,可以通过备份恢复数据库,从而保证数据可靠性。备份以压缩包的形式存储在对象存储服务上,以保证用户数据的机密性和持久性。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 关系型数据库默认开启的自动备份策略设置如下: 保留天数:默认为7天。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段 ,例如01:00~02:00,12:00~13:00等。备份时间段以UTC时区保存。如果碰到夏令时/冬令时切换,备份时间段会因时区变化而改变。 备份周期:默认为一周内的每一天。 开启或修改自动备份策略 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在左侧导航栏,单击“备份恢复”,单击“修改备份策略”,如需开启自动备份策略,单击。保留天数是指自动备份可保留的时间,增加保留天数可提升数据可靠性,请根据需要设置。 减少保留天数的情况下,该备份策略对已有备份文件同时生效,即超出备份保留天数的已有备份文件会被删除。 保留天数为全量自动备份和Binlog备份的保留时长,范围为1~732天,备份时间段为间隔1小时,建议根据业务情况,选择业务低峰时段,备份周期默认全选,可修改,且至少选择一周中的1天。 步骤 6 单击“确定”,确认修改。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        备份与恢复
        设置自动备份策略
      • 如何清理Windows操作系统云主机的磁盘空间?
        关闭休眠功能 以下操作以Windows Server 2008 R2 Standard 64bit操作系统弹性云主机为例,介绍关闭云主机休眠功能的操作方法。 方法1 :删除“Hiberfil.sys ”文件 “Hiberfil.sys”是Windows操作系统的休眠功能文件,占用系统盘空间较大,它将内存数据与会话保存至硬盘、以便计算机断电重新启动后可以快速恢复会话所需的内存镜像文件。执行以下操作删除“Hiberfil.sys”文件,释放磁盘空间。 1. 使用管理员身份运行cmd.exe,打开命令行窗口。 2. 执行以下命令,关闭休眠功能,同时“Hiberfil.sys”文件也会自动删除。 powercfg h off 方法2 :关闭休眠功能 1. 选择“开始 > 控制面板 > 外观 > 显示 > 更改屏幕保护程序”,单击“更改电源设置”。 2. 在“电源选项”页面,单击“平衡 (推荐)”后面的“更改计划设置”。 3. 选择希望计算机使用的睡眠设置和显示设置,设置为“从不”。 清理Internet Explorer浏览器产生的临时文件 以下操作以Windows Server 2008 R2 Standard 64bit操作系统弹性云主机为例,介绍清理Internet Explorer浏览器产生的临时文件的操作方法。 Internet Explorer中有指定的文件夹存储上网记录的所有信息,包括Internet Explorer缓存文件、Cookies文件、最近浏览的历史记录、访问过的网址、地址栏网址及IE表格/密码记录等。请执行以下操作清理Internet Explorer浏览器产生的临时文件。 1. 选择“开始 > 控制面板 > 网络和Internet > Internet选项”,单击“删除浏览的历史记录和cookie”,将cookie和IE临时文件删除。 2. 上一步执行后,可能还残留未清理彻底的文件或记录,请分别打开“C:Windowstemp”和“C:Users用户名AppDataLocalTemp”文件夹,这两个文件夹是Windows系统临时存储的文件夹,会把浏览者浏览网站或者其他记录保存在这里,将文件夹中的文件全部删除。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像优化类
        如何清理Windows操作系统云主机的磁盘空间?
      • 功能特性
        本小节介绍漏洞扫描功能特性。 产品主要定位主机系统漏洞发现,弱口令检测、配置脆弱性检测,扫描覆盖多种系统环境,如:Windows、UNIX、Linux、Solaris等,帮助客户发现主机中存在的漏洞风险,根据不同漏洞提供解决建议。 漏洞扫描 多种评估类型:评估主机系统、网络和应用程序的弱点,检测系统内的恶意软件,发现Web服务器和服务的弱点。 丰富的评估能力:网络设备,包括下一代防火墙、操作系统、数据库、Web应用、虚拟和云环境等,扫描IPv4、IPv6和混合网络,可根据需求设置扫描任务运行时间和频率。 两种扫描模式:漏洞扫描器在选择扫描方式时可使用非登录扫描和登录扫描方式,登录扫描能够更深入全面的发现主机漏洞。 持续管理:扫描器可以配置为自动更新,扫描器不断更新高级威胁及零日漏洞插件。 多种报告:自定义报告以按漏洞或主机排序,创建执行摘要或比较扫描结果以突出显示更改,可提供XML、PDF、CSV和HTML类型的报告。 开放端口 SYN扫描:端口扫描是计算机入侵者常用的一种漏洞发现方式,攻击者可以通过它了解到主机攻击弱点,一个开放端口就是一个潜在的通信通道,也就是一个入侵通道。如主机开启FTP服务,默认会开放两个端口,一般为20和21端口,入侵者使用端口扫描发现这两个开放状态的端口后将针对展开入侵行为,成功入侵将对企业造成不可估量损失。而网络运营者主动通过端口扫描发现开放端口,分析开放端口潜在风险,做好开放端口访问限制,识别不必要的开放端口并及时关闭,可避免端口被入侵者利用,提高主机防护能力。
        来自:
        帮助文档
        漏洞扫描
        产品介绍
        功能特性
      • 概述
        本文介绍了跨域复制的基本概念、关键特点及应用场景等信息,供您了解弹性文件服务的异地容灾能力。 基本概念 跨域复制是指在不同地域之间进行自动复制数据的过程,弹性文件服务的跨域复制功能基于中国电信骨干网可以将文件系统中的数据近实时、异步复制到跨地域的另一个文件系统,以实现现数据的备份 、容灾 以及满足特定合规性要求等目的。比如金融、政企等安全合规性要求较高的企业可能在不同的地区拥有数据中心,为了确保数据的高可用性和灾难恢复能力,会使用跨域复制功能将数据从一个数据中心复制到另一个数据中心。这样,即使一个地区的数据中心出现故障,数据仍然可以在另一个地区的副本中找到,保证业务的连续性。 关键特点 自动复制 跨域复制是自动进行的,无需人工触发和干预。服务端会根据创建复制时选择的目标区域及目标文件系统,将数据和元数据自动进行同步。当复制任务创建成功后会进行一次全量扫描,然后进行初始化同步,当后续发生新增和修改时都会进行自动增量同步。 数据一致性 单个文件的数据一致性由多种方式来保证: 当用户创建一个复制任务时,服务端会比较从源传过来的文件列表下文件的checksum,如果不一致的文件,那么目的端会返回这部分不一致的文件列表,告诉源端这些不一致的文件需要复制。 如果是一个完整的文件复制完成,将会由checksum比较算法来快速比对文件是否内容一致。 如果是文件只修改了部分,首先使用checksum比较算法比对文件内容,发现不一致时就按照分块checksum比较算法,来验证块之间是否一致,不一致的块需要复制同步,当这些任务完成之后源和目的端即达到数据一致。 初始化同步时,会进行源和目标的数据扫描,目标文件系统已经存在但源文件系统不存在的数据会被保留,若是源和目标存在同名目录/同名文件,则会比较文件的数据是否一致,若不一致则会被覆盖。因此建议目标文件系统仅作为源的复制目标,不作为业务读写使用,防止数据被覆盖。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        跨域复制
        概述
      • Linux任务配置
        本节为您介绍云迁移服务CMS服务器迁移中Linux迁移任务相关配置。 自定义分区 根据源机分区自动初始化目标机分区配置,用户可自定义修改。 说明 存储容量修改建议:若需调整分区可通过查看源机分区与平台处查看源机分区查看迁移源信息,参照迁移源文件系统类型,挂载点,分区类型等信息进行目标机分区大小调整操作。具体请参见 1. 单点击“添加目标机分区”新增分区,分区类型包含标准分区、扩展分区、逻辑分区和LVM分区。 2. 您也可以按需进行“管理分区类型”、“管理LVM”、“查看源机分区”、“重置”。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        迁移任务配置与开始全量迁移
        Linux任务配置
      • 产品定义
        了解什么是存储资源盘活系统。 HBlock是中国电信天翼云自主研发的存储资源盘活系统(Storage Resource Reutilization System,简称SRRS),是一款轻量级存储集群控制器,实现了全用户态的软件定义存储,将通用服务器及其管理的闲置存储资源转换成高可用的虚拟磁盘,通过标准 iSCSI 协议提供分布式块存储服务,挂载给本地服务器(或其他远程服务器)使用,实现对资源的集约利用。同时,产品拥有良好的异构设备兼容性及场景化适配能力,支持数据上传到对象存储,提供软件和一体机两种产品形态。 在非联网模式下,HBlock软件可被视为本地盘阵的替代品,用于本地数据存储;在联网模式下,HBlock软件还可以作为本地与云端存储之间的桥梁,将全量数据自动同步到对象存储中,本地仅保留热数据以节省本地存储空间,或者保留全量数据以保障本地I/O性能,实现混合云存储。
        来自:
        帮助文档
        存储资源盘活系统
        产品简介
        产品定义
      • 产品规格
        本章节主要介绍数据仓库服务产品规格。 销售品名称 CPU核数(核) 内存容量(GB) : 数据仓库dwsx2.xlarge.m7n 4 32 数据仓库dwsx2.2xlarge.m7n 8 64 数据仓库dwsx2.8xlarge.m7n 32 256 数据仓库dwsx2.16xlarge.m7n 64 512 数据仓库dws2.m6.4xlarge.8 16 128 数据仓库dws2.m6.8xlarge.8 32 256 数据仓库dws2.m6.16xlarge.8 64 512 云数仓dwsx2.2xlarge 8 64 云数仓dwsx2.8xlarge 32 256 云数仓dwsx2.16xlarge 64 512
        来自:
        帮助文档
        数据仓库服务
        计费说明
        产品规格
      • 告警历史
        本章节主要介绍翼MR Manager的告警历史特性。 进入到翼MR Manager以后,点击菜单“监控与告警 > 告警历史”,进入告警历史页面。如图所示: 页面上方为查询区域,各种查询条件进行组合查询。 支持查询集群服务级、角色实例级、主机级的告警信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        监控与告警
        告警历史
      • 主界面
        本节主要介绍智能视图服务电子地图的主界面。 点击左侧菜单栏【电子地图】进入该功能模块,右侧展示电子地图界面,如下图。 若地图上有摄像头,则在地图上显示摄像头数量和摄像头名称,放大电子地图后即可查看单个摄像头地理位置,如下图。
        来自:
        帮助文档
        智能视图服务
        用户指南(旧版)
        电子地图
        主界面
      • 回源HTTP响应头
        本文简述回源HTTP响应头的用途和配置方法。 功能介绍 天翼云边缘安全加速平台安全与加速服务支持自定义配置回源HTTP响应头,您可根据业务需要,选择添加、修改、删除回源HTTP响应头。 回源HTTP响应头 HTTP响应头是HTTP响应消息头的重要组成部分,可使用HTTP响应头携带特定的响应参数返回给客户端。当边缘节点上没有用户请求的资源时,边缘节点会回源获取该资源,源站会响应用户请求的资源。为方便用户识别,可通过配置回源HTTP响应头的功能,改写响应报文中的HTTP头。 配置说明 天翼云边缘安全加速平台安全与加速服务回源HTTP响应头采用key、value的方式进行配置。 添加回源HTTP响应头,key对应需要添加的响应头名称,value对应需要配置的响应头的值。 修改回源HTTP响应头,key对应需要修改的响应头名称,value对应修改后的响应头值。 删除回源HTTP响应头,key对应需要删除的响应头名称,value配置为空。 如您需要配置回源HTTP响应头功能,请提交工单给天翼云客服,由其帮您配置。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        头部修改
        回源HTTP响应头
      • 计费说明
        本节介绍计费说明。 计费项 态势感知(专业版)按选购的资产配额数计费。 计费项 计费说明 资产配额 按购买的资产配额数计费,包括主机资产配额数和网站资产配额数。 按包周期购买计费 提供包月和包年的购买模式。 按需购买计费 即开即停,按小时结算。 计费模式 态势感知(专业版)的计费模式为包周期和按需计费。 包周期:按包年/包月计费。 按需计费:按小时结算,根据实际使用时长(小时)计费。先使用后付费,使用方式灵活,可以即开即停。 资费结构与规格 规格 按需(小时) 包月 包1年 包2年 包3年 价格单位 专业版 0.31 150 1530 2520 2700 元/个/ECS 退订 若购买态势感知(专业版)后,需要停止使用,请执行退订操作。 到期与欠费 到期 若包周期版本到期后,未及时续费,会根据“客户等级”和“订购方式”定义不同的保留期时长,保留期内专业版服务可继续使用。若保留期到期后,仍未及时续费,专业版会变为基础版。 欠费 当您的账户欠费后,可查看欠费详情,此时账户将进入欠费状态,需要在约定时间内支付欠款。为避免相关服务不被停止,请及时为账户充值。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        计费说明
        计费说明
      • 回源HOST带端口
        本文介绍回源HOST带端口功能及其配置说明。 功能介绍 当源站绑定了多个域名,且源站服务运行在非80/443端口(比如8080)时,开启回源HOST带端口功能,回源时可以在回源HOST中带上具体的端口(如test.ctyun.cn:8080),精准找到源站服务。 注意事项 1. 新增域名,默认开启回源HOST带端口功能,如需关闭,请在域名新增完成后编辑域名关闭功能。 2. 回源HOST带端口功能开启后,默认携带所有非80/443的端口。跟随请求端口回源关闭时回源HOST默认带除了80、443外的回源端口;跟随请求端口回源开启时,回源HOST默认带除了80、443外的请求端口。 配置说明 1. 登录++CDN控制台++。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【回源配置】。 5. 开启/关闭【回源HOST带端口】功能。 6. 单击【保存】,完成配置。 参数名 说明 回源HOST带端口 关闭时,回源HOST不携带端口。 开启时,回源HOST携带非80/443的回源端口回源。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        回源HOST带端口
      • 查询域名攻击概况
        接口描述:调用本接口查询域名在指定时间段的攻击概况 请求方式:post 请求路径:/waf/statistics/queryattackinfo 使用说明: 修改域名之前,您需要先开通对应产品类型的服务,且服务有效; 支持查询最近30天数据 单个用户一分钟限制调用10000次,并发不超过100 支持查询WAF攻击类型的数据 请求参数说明: 参数名 类型 是否必填 名称 说明 domain string 是 域名 单次调用仅支持一个域名查询 startTime string 是 开始时间 格式为:YYYYMMDDThh: mm:ssZ 支持最近30天的数据 endTime string 是 结束时间 格式为:YYYYMMDDThh: mm:ssZ 支持最近30天的数据 pageSize int 否 查询每页的数量 不传默认30,pageSize以及pageNumber的乘积不得超过2000 pageNumber int 否 查询的页数 不传默认30,pageSize以及pageNumber的乘积不得超过2000 返回参数说明: 参数 类型 是否必传 名称及描述 code string 是 状态码,成功100000 message string 是 描述信息,成功返回success,其他返回异常信息描述 data overviewData 否 查询结果以及域名对应状态 1) overviewData参数 参数 类型 是否必返回 名称及描述 bandwidth string 是 业务带宽 flow string 是 业务流量 requestsNumber string 是 请求数 peakAttack string 是 攻击峰值 domain string 是 安全加速域名
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询域名攻击概况
      • 购买类
        本章节内容主要介绍购买类常见问题 购买迁移任务的数量限制? 为防止资源滥用,平台限定了各服务资源的配额,对用户的资源数量和容量做了限制,如:一个数据库复制服务帐号,您最多可以创建5个任务。 如果受当前资源配额限制,无法满足业务使用需求,您可以申请扩大配额,通过提工单方式。 购买数据库复制是否支持包周期? 当前还仅具备按配置费、数量传输费两个收费项的按需订购,不迁移时不收费; 后续将根据技术发展,考虑增加包周期的收费方式,敬请期待。 扩大带宽是否会对DRS正在进行的任务产生影响? 扩大云连接带宽时需要重建带宽链路,则会导致网络断开,此时是否会对DRS任务产生影响取决于网络断开的时间以及源库IP有没有发生变化。 例如针对MySQL引擎而言,如果网络断开1天,而在这1天时间内源库binlog被清理了(MySQL都有binlog清理策略,用户侧自己配置的),就无法进行任务续传,需要重置任务。 如果网络中断的时间很短,并且带宽链路更换完成后源库的VPN内的IP地址没有变,则是可以继续续传任务,不会对DRS任务产生影响。
        来自:
        帮助文档
        数据库复制
        常见问题
        购买类
      • 方案正文
        创建DRS备份迁移任务 1、登录管理控制台。 2、单击管理控制台右上角区域选项,选择区域和项目。 3、在页面左上角单击,选择“数据库 > 数据复制服务”。进入数据库复制页面。 4、在“实例管理”页面左侧点击“备份迁移管理” 5、进入“备份迁移管理”页面后点击右上角“创建迁移任务”按钮 6、填写迁移信息,选择要迁移的备份,点击下一步 7、选择目标RDS实例和要还原的数据库,点击下一步 8、勾选服务协议,确认迁移信息后点击启动任务 9、控制台可以查询迁移进度 验证迁移是否成功 1、通过ECS登录SQL Server客户端,本实验采用的数据库客户端为SQL Server Management Studio 2017。 2、通过目的端数据库的IP和账号密码进行登录。 3、登录后可以验证目的端是否存在源库数据
        来自:
        帮助文档
        关系数据库SQL Server版
        最佳实践
        通过DRS备份迁移SQL Server
        方案正文
      • 1
      • ...
      • 274
      • 275
      • 276
      • 277
      • 278
      • ...
      • 511
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      应用托管

      人脸检测

      推荐文档

      如何修改账号的密码?

      修改描述

      安全防护告警

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号