活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      超融合服务-iStack_相关内容
      • DMS for Kafka资源
        本文主要介绍DMS for Kafka资源。 资源是服务中存在的对象。在DMS for Kafka中,资源包括:kafka,您可以在创建自定义策略时,通过指定资源路径来选择特定资源。 表 DMS for Kafka的指定资源与对应路径 指定资源 资源名称 资源路径 kafka 实例 【格式】DMS:::kafka:Instance ID 说明 对于实例资源,IAM自动生成资源路径前缀DMS:::kafka: 通过实例ID指定具体的资源路径,支持通配符。例如: DMS:::kafka:表示任意Kafka实例。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        权限管理
        DMS for Kafka资源
      • 实例连接方式介绍
        本章节介绍天翼云关系型数据库支持的实例连接方式。 关系型数据库服务提供使用内网、公网的连接方式。 表 RDS连接方式 连接方式 IP地址 使用场景 说明 内网连接 内网IP地址 系统默认提供内网IP地址。 当应用部署在弹性云服务器上,且该弹性云服务器与关系型数据库实例处于同一区域,同一VPC时,建议单独使用内网IP连接弹性云服务器与关系型数据库实例。 安全性高,可实现RDS的较好性能。 推荐使用内网连接。 公网连接 弹性公网IP 不能通过内网IP地址访问RDS实例时,使用公网访问,建议单独绑定弹性公网IP连接弹性云服务器(或公网主机)与关系型数据库实例。 降低安全性。 为了获得更快的传输速率和更高的安全性,建议您将应用迁移到与您的RDS实例在同一子网的,使用内网连接。 说明 VPC:虚拟私有云(Virtual Private Cloud,简称VPC)。 ECS:弹性云服务器(Elastic Cloud Server,简称ECS)。 若弹性云服务器和关系型数据库实例处于同一个虚拟私有云的子网内,则无需申请外网地址。 图 实例内网和公网连接
        来自:
        帮助文档
        关系数据库SQL Server版
        快速入门
        实例连接方式介绍
      • 负载均衡器概述
        本文帮助您快速了解负载均衡器功能作用及天翼云不同类型的负载均衡器。 负载均衡器是弹性负载均衡中分配和管理网络流量的关键组件,是承载业务的负载均衡服务实例,其作用是根据预先设定的规则,接收来自客户端的请求流量,并将流量分配到一个或多个可用的后端主机,以确保系统的稳定性和高可用性。创建负载均衡器后,您还需要添加监听器和后端主机,然后才能使用负载均衡服务提供的功能。 性能保障型和经典型负载均衡器 依据不同产品性能,天翼云提供性能保障型负载均衡器和经典型负载均衡器,您可以根据实际需求选择适合的配置。 性能保障型负载均衡 性能保障型负载均衡适用于对性能有较高要求的应用场景,能够提供更强大的性能和扩展能力。性能保障型负载均衡为收费产品,为集群模式部署,支持经典型升级为性能保障型,支持规格升级、降级。 经典型负载均衡 经典型负载均衡适用于访问量较小,应用模型简单的web业务,可满足大部分应用程序的负载均衡需求,具备基本的流量分发和健康检查功能。经典型负载均衡为免费规格,同VPC内多实例性能共享,为主备模式部署。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        负载均衡器
        负载均衡器概述
      • IP地址组
        修改IP地址组 1. 登录管理控制台。 2. 在管理控制台左上角选择区域和项目。 3. 选择“服务列表 > 网络 > 弹性负载均衡”。 4. 在“IP地址组”界面,需要修改的IP地址组所在行,单击“修改”。 5. 修改IP地址组参数。 IP地址组参数说明表 参数 说明 样例 名称 IP地址组的名称。 ipGroup01 IP地址 需要通过白名单或黑名单进行访问控制的IP地址。每行一个IP地址或一个网段,以回车结束; 每个IP地址或者网段都可以用“”分隔添加备注,如“192.168.10.10丨ECS01”, 备注长度范围是0到255字符,不能包含<>;每个IP地址组最多可添加300个IP地址和网段。 说明:如果IP地址组未包含任何IP地址,当访问控制选择白名单时,则对应的负载均衡监听器禁止任何IP地址访问。 10.168.2.24 10.168.16.0/24 描述 IP地址组相关信息的描述说明。 6. 确认参数配置,单击“确定”。 删除IP地址组 如果IP地址组已经关联了监听器,则不允许删除。 1. 登录管理控制台。 2. 在管理控制台左上角选择区域和项目。 3. 选择“服务列表 > 网络 > 弹性负载均衡”。 4. 在“IP地址组”界面,需要删除的IP地址组所在行,单击“删除”。 5. 确认需要删除的IP地址组,单击“是”。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        IP地址组
      • 修改/删除监听器
        本文主要介绍如何修改/删除监听器。 操作场景 如果您已创建监听器,您可以根据实际业务需求,可以修改或者删除监听器。 监听器被删除后无法恢复,请谨慎操作。 说明 目前暂不支持修改“前端协议/端口”和“后端协议”,如果要修改监听器的协议或端口,请重新创建监听器。 修改监听器 1. 登录管理控制台。 2. 在管理控制台左上角选择区域和项目。 3. 选择“服务列表 > 网络 > 弹性负载均衡”。 4. 在“负载均衡器”界面,单击需要修改监听器的负载均衡名称。 5. 切换到“监听器”页签,单击需要修改的监听器名称右侧“修改”入口。 6. 修改参数,单击“完成”。 删除监听器 1. 登录管理控制台。 2. 在管理控制台上方选择区域和项目。 3. 选择“服务列表 > 网络 > 弹性负载均衡”。 4. 在“负载均衡器”界面,单击需要删除监听器的负载均衡名称。 说明 如果该监听器下有后端云主机,删除监听器之前需移除云主机。 如果HTTP设置了重定向至HTTPS,删除HTTPS监听器之前需删除HTTPS重定向规则。 如果监听器包含了转发策略,删除监听器之前需先删除转发策略。 删除监听器后会同时删除所绑定的后端主机组。 5. 切换到“监听器”页签,单击需要删除的监听器名称右侧的 。 6. 单击“是”。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        修改/删除监听器
      • 翼建站的功能与优势
        翼建站的功能与优势 功能: 文章系统 文章类型1 文章模块可根据客户需求进行动态化调整,模块内容不限于以上模块 文章系统 文章类型2 文章模块可根据客户需求进行动态化调整,模块内容不限于以上模块 文章系统 文章类型3 文章模块可根据客户需求进行动态化调整,模块内容不限于以上模块 文章系统 …… 文章模块可根据客户需求进行动态化调整,模块内容不限于以上模块 图集管理 分类 可设置前台banner图 图集管理 列表 可设置前台banner图 自定义代码 设置站点自定义代码 用户与角色 用户管理 可设置后台管理员,方便多管理员进行管理 用户与角色 角色管理 可设置后台管理员,方便多管理员进行管理 站点管理 菜单项管理 设置后台操作权限 站点管理 日志管理 查看后台操作日志 项目外部链接 友情链接 可任意设置相应站点链接 项目外部链接 其他站点 可任意设置相应站点链接 联系我们 一键导航 可设置一键导航信息 联系我们 联系方式 可设置联系方式 个人服务 个人信息 修改个人信息 个人服务 密码修改 修改个人密码 线上互动 留言板 管理在线留言 系统设置中心 网站信息 设置网站基础信息,包括联系方式等 系统设置中心 访问统计 接入丰富的访问统计功能,方便查阅访问情况
        来自:
        帮助文档
        翼建站
        产品介绍
        翼建站的功能与优势
      • 入门概述
        本节内容为您介绍快捷开通并使用天翼云手机的流程,帮助您快速上手。 本节内容为您提供快捷开通并使用天翼云手机(政企版)的流程。 准备工作: 使用天翼云手机前,请确保您已经开通了天翼云账号并完成实名认证。相关操作参考如下: 注册天翼云账号 实名认证 使用流程: 下面以控制台订购天翼云手机(政企版)为例,介绍天翼云手机的开通使用流程,帮助您快速上手。使用的流程如下。 1、开通云手机服务(可选) 在创建并管理云手机之前,需由管理员首先开通云手机服务。 2、订购云手机 根据需求选择云手机配置,并把云手机分配到个人用户,支付成功则完成云手机的快速订购。 3、用户账号激活 完成开通云手机后,用户邮箱会收到天翼云手机政企版开通提醒邮件,根据流程激活账户即可。 4、登录连接云手机 下载并安装客户端后,您可以使用云手机账号登录客户端,然后连接使用云手机。
        来自:
        帮助文档
        天翼云手机
        快速入门
        入门概述
      • 推流地址生成规则
        本文介绍视频直播加速服务中推流地址的生成规则。 前提条件 已开通视频直播服务。 已添加推流域名,详细信息请参见添加加速域名。 已配置CNAME。 推流地址生成规则 生成规则 天翼云视频直播支持RTMP(S)格式的直播推流,对应推流地址的生成规则如下所示: RTMP(S)格式:rtmp(s)://推流域名/AppName/StreamName 字段 说明 推流域名 在直播控制台添加的推流域名。 AppName 发布点,即直播的应用名,是指直播流媒体文件的存放路径。默认为“live”,可根据实际需要自定义。AppName支持大小写字母、数字、下划线和中划线。 StreamName 流名,通常与域名和发布点一起唯一标识一路流。StreamName支持大小写字母、数字、下划线和中划线。 示例 假设推流域名为"push.ctyun.cn"、AppName为"live"、StreamName为"ctyun1",则推流地址为:rtmp(s)://push.ctyun.cn/live/ctyun1 说明 如果需要在推流URL中携带相应的鉴权参数,请参见URL鉴权。 您可以在地址生成器中生成URL示例,详细信息请参见地址生成器。
        来自:
        帮助文档
        视频直播
        快速入门
        推流地址生成规则
      • 主机资产
        自动导入天翼云上ECS资产 说明 目前仅“一类节点”区域的实例支持自动导入天翼云上ECS资产 。云堡垒机(原生版)支持的区域请参见支持的区域。 1. 使用“管理角色”账户登录云堡垒机(原生版)控制台。 2. 在左侧导航栏选择“资产管理 > 资产”,进入“资产”页面。 3. 选择“导入 > 天翼云ECS实例导入”,勾选需要导入的ECS资产。 4. 根据需求选择导入策略。 说明 跳过:若存在同名资产,则跳过该资产的导入。 覆盖:若存在同名资产,使用新资产覆盖旧资产。 建立副本:若存在同名资产,则为新资产增加后缀后导入(后缀新增为1;2……以此类推)。 5. 单击“导入”,完成天翼云ECS资产导入。 批量导入资产 1. 使用“管理角色”账户登录云堡垒机(原生版)控制台。 2. 在左侧导航栏选择“资产管理 > 资产”,进入“资产”页面。 3. 选择“导入 > 从本地文件导入”,在弹出的对话框中下载导入模板。 4. 在导入模板文件中填写内容,填写完成后保存。 说明 模板中红色标题为必填项。 多个资产组用英文逗号“,”隔开。 资产类型为Windows服务器或Unix/Linux服务器时只会判断录入黑色标题的端口协议。 资产类型为数据库时只会判断录入蓝色标题的端口协议且协议有填写时对应的服务名必填。 参数 参数说明 取值样例 资产名称 自定义新增的资产名称。 Test 资产类型 填写新增的资产类型:可填Windows服务器 、Unix/Linux服务器 或数据库。 Windows服务器 IP地址 填写纳管资产的IP地址,支持IPv4和IPv6。 0.0.0.0 资产组 填写新增资产所属的资产组。 资产描述 填写资产的描述。 协议 填写协议的端口: 资产类型为Windows服务器 或Unix/Linux服务器 时只会判断录入黑色标题的端口协议。 资产类型为数据库 时只会判断录入蓝色标题的端口协议且协议有填写时对应的服务名必填。 访问信息 填写资产的访问编码,仅支持填写“UTF8”或“GBK”。 GBK 5. 上传已经填写完成后的导入模板,根据需求选择导入策略。 说明 跳过:若存在同名资产,则跳过该资产的导入。 覆盖:若存在同名资产,使用新资产覆盖旧资产。 建立副本:若存在同名资产,则为新资产增加后缀后导入(后缀新增为1;2……以此类推)。 6. 单击“提交”,完成资产导入。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        资产管理
        主机资产
      • 入门必读
        本文主要介绍入门必读 性能测试是一项为基于HTTP/HTTPS/TCP/UDP/HLS/RTMP/WEBSOCKET/HTTPFLV等协议构建的云应用提供性能测试的服务。服务支持快速模拟大规模并发用户的业务高峰场景,可以很好的支持报文内容和时序自定义、多事务组合的复杂场景测试,测试完成后会为您提供专业的测试报告呈现您的服务质量。 通过简单的四步操作,您就可以完成一次性能测试。 性能测试步骤 性能测试提供体验馆功能,通过体验向导,帮助您快速熟悉性能测试的使用流程。 基本概念 测试工程: 性能测试为用户的测试工程提供管理能力,事务、压测任务、测试报告的内容在同一个测试工程内共享复用,您可以为不同的测试项目创建不同的测试工程。 事务: 事务是指用户自定义的操作模型,包括HTTP/HTTPS/TCP/UDP/WEBSOCKET报文、思考时间、响应提取和检查点和HLS/RTMP/HTTPFLV报文部分。 报文: 报文是HTTP应用程序之间发送的数据块。这些数据块以一些文本形式的元信息开头,这些信息描述了报文的内容及含义,后面跟着可选的数据部分。这些报文都是在客户端、服务器和代理之间流动。 思考时间: 为了更好的模拟用户的行为,需要模拟用户在不同操作之间等待的时间,例如,当用户收到来自服务器的数据时,可能要等待几秒查看数据,然后再做出响应,这种延迟,就称为思考时间。 响应提取: 如果同一事务中存在多个报文,通过正则表达式或JSON提取把前一个报文的输出提取出来,作后一个报文的输入。 检查点: 检查点主要是通过自定义校验信息来验证服务端的返回内容是否正确。 并发用户数: 在性能测试工具中,并发用户数一般被称为虚拟用户数。注意“并发用户数”和“在线用户数”的区别:“并发用户数”会对服务器产生压力,“在线用户数”只是挂在系统上,对服务器不产生压力。 响应时间: 用户从客户端发起一个请求开始,到客户端接收到从服务器端返回的响应结束,整个过程所耗费的时间。在性能检测中一般以测试环境中压力发起端至服务器返回处理结果的时间为计量,单位一般为秒或毫秒,该时间不同于模拟真实环境的用户体验时间。 不同行业不同业务可接受的响应时间是不同的。一般情况下,互联网企业在500毫秒以下;金融企业1秒以下为佳;保险企业3秒以下为佳。
        来自:
        帮助文档
        性能测试PTS
        快速入门
        入门必读
      • 产品优势
        本节主要介绍OBS的产品优势。 OBS与自建存储服务器对比 在信息时代,企业数据直线增长,自建存储服务器存在诸多劣势,已无法满足企业日益强烈的存储需求。下表向您详细展示了OBS与自建存储服务器的优劣势对比。 对比项 OBS 自建存储服务器 数据存储量 提供海量的存储服务,所有业务、存储节点采用分布式集群方式部署,各节点、集群都可以独立扩容,用户永远不必担心存储容量不够。 数据存储量受限于搭建存储服务器时使用的硬件设备,存储量不够时需要重新购买存储硬盘,进行人工扩容。 安全性 支持HTTPS/SSL安全协议。同时OBS通过访问密钥(AK/SK)对访问用户的身份进行鉴权,结合IAM策略、桶策略、ACL、防盗链等多种方式和技术确保数据传输与访问的安全。 需自行承担网络信息安全、技术漏洞、误操作等各方面的数据安全风险。 成本 即开即用,免去了自建存储服务器前期的资金、时间以及人力成本的投入,后期设备的维护交由OBS处理。 前期安装难、设备成本高、初始投资大、自建周期长、后期运维成本高,无法匹配快速变更的企业业务,安全保障的费用还需额外考虑。
        来自:
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 入门流程
        本文带您快速熟悉通过管理控制台使用对象存储的入门流程。 对象存储(简称ZOS)基础使用流程包括开通ZOS服务、资源包管理、接入管理(VPC)、创建桶、上传文件、下载文件、删除文件、删除桶,以下是ZOS的基础入门使用流程:
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        入门操作
        入门流程
      • 通过云主机创建整机镜像
        操作步骤 1、登录IMS控制台。 a.登录控制台。 b.选择“镜像服务”。 进入镜像服务页面。 2、创建整机镜像。 a.单击右上角的“创建私有镜像”,进入创建私有镜像页面。 b.创建方式选择“创建私有镜像”。 c.镜像类型选择“整机镜像”,镜像源选择“云主机”,从列表中选择相应的云主机。 图 使用云主机创建整机镜像 d.选择“云主机备份存储库”,用于存放备份。 创建的整机镜像及中间产物备份副本会默认存放在备份存储库中,因此必须选择一个云主机备份存储库。 如果没有可用的存储库,请单击“新建云主机备份存储库”进行创建,注意“保护类型”需选择“备份”。 e.在“配置信息”区域,填写镜像的基本信息。例如,镜像的名称和镜像描述。 f.单击“立即创建”。 g.根据界面提示,确认镜像参数。阅读并勾选协议,单击“提交”。 3、返回私有镜像列表,查询创建的整机镜像的状态。 当镜像的状态为“正常”时,表示创建完成。 整机镜像状态为“可用区x可用”(可用区x表示镜像源云主机所在的可用区)时:表示云主机备份还未创建成功,只是创建好磁盘快照。 此时,这个整机镜像只能在该可用区中发放云主机。如果需要在区域内发放云主机,需要等云主机备份完全创建好,并且整机镜像状态为“正常”,该过程大概需要10分钟,具体由云主机的数据量决定,数据量越大,时间越长。 图 整机镜像状态
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        创建私有镜像
        通过云主机创建整机镜像
      • 伸缩组内实例管理类
        本文汇总了管理伸缩组内实例过程中会遇到的管理类问题。 怎样查看通过弹性伸缩创建的主机实例密码并进行登录? 系统无法获取您设置的密码内容,请您在创建伸缩配置时,妥善保管相关内容。 通过弹性伸缩创建的云主机实例,与伸缩组关联的伸缩配置中设置的登录方式和密码保持一致。 自动创建的云主机 实例密码是否与主机私有镜像中的密码一致? 不一致。 为了确保安全,所有自动创建的云主机实例密码都建议采用SSH密钥对。在自动创建云主机实例时,通常不会采用自定义镜像的密码来作为登录密码。 通过伸缩组扩容自动创建的弹性云主机实例如何部署应用? 通过伸缩组扩容自动创建的弹性云主机实例,可通过 “私有镜像 + 用户数据” 实现应用自动部署。具体为:创建包含应用程序软件及开机自启动设置的私有镜像,并配合用户数据注入开机后自动执行的脚本,即可实现应用自动部署。 弹性伸缩场中,云主机健康检查与负载均衡健康检查有什么区别? 云主机健康检查 :聚焦云主机实例本身状态。当检测到实例处于 “错误” 等异常状态时,会将其移出伸缩组,同时自动创建新的健康实例,确保伸缩组实例数量符合预设配置。 负载均衡健康检查 :需先为伸缩组关联负载均衡器才可启用,检查云主机实例上指定服务的端口响应状态。若伸缩组关联多台负载均衡器,需所有负载均衡器均判定实例 “健康”,才认为其正常;只要有一台检测到端口服务异常,实例就会被移出伸缩组。
        来自:
        帮助文档
        弹性伸缩服务 AS
        常见问题
        伸缩组内实例管理类
      • 网关设备接入
        本节主要介绍如何在智能视图服务控制台接入网关设备。 点击左侧导航栏的【设备管理】,点击【添加设备】,进入添加设备页面,包含接入配置和设备配置两个步骤。 IPC与NVR设备均支持了通过网关接入,在接入配置页面中,填入设备名称,下拉选择设备分类(IPC/NVR),接入协议选择【网关接入】,可在网关选择中下拉选择已注册的网关(网关注册流程参考【网关管理】),选择所属的网关协议,填写登录设备的相关信息,绑定资源包,点击【下一步】。 说明 网关选择:无法选择被禁用的网关,且若选择的网关处于离线状态,则在网关上线前,通过该网关添加的设备也均处于离线状态。 网关协议类别 设备用户名/密码 内网IP 设备端口 各类厂商SDK 设备登录配置端使用的用户名/密码 设备所在局域网内的 IP 地址 填写规范:海康默认8000。 Onvif 设备登录配置端后,配置Onvif专属用户名/密码 设备所在局域网内的 IP 地址 填写规范:Onvif 默认为80。 进入到设备配置页面,选择厂商、设备地址和所属行业等相关信息后,点击【提交】可以看到在平台上成功创建的网关接入设备。 若网关为在线状态,设备注册完成后,等待大约1分钟后(不同的设备等待时间略有差异),在天翼云智能视图服务控制台的设备管理页面查看该设备,如果是在线状态,说明设备接入成功; 若网关为离线状态,则设备也即为离线状态。
        来自:
        帮助文档
        智能视图服务
        用户指南
        设备管理
        网关设备接入
      • 计费概述
        本文介绍了并行文件服务HPFS的计费模式、计费项、计费周期、计费公式以及产品定价等相关内容。 计费模式 并行文件服务HPFS会根据存储类型、配置容量大小和时长进行计费。当前仅提供HPC性能型存储类型,以及按需计费的计费模式。 按需计费(后付费):按照创建文件系统时配置容量结算费用,先使用,后付费,适用于业务用量经常有变化的场景。 计费项 根据存储类型和规格,按照创建文件系统时配置的容量大小计费,并非按照上传文件的使用量。 在使用HPFS过程中,除并行文件系统配置容量的计费项费用之外,还可能涉及以下费用: 弹性IP费用 当您使用文件系统上传或下载数据、将本地数据迁移至HPFS时,通过将文件系统挂载至一台连接公网的物理机上实现数据上传和下载。如您占用弹性IP提供的公网带宽,具体费用信息,请参考弹性IP计费说明。 计费周期 HPFS按小时为周期统计,即每小时结算一次,须保证您的账户余额充足,避免可能因欠费影响业务。 计费公式 存储空间费用 存储类型单价(元/GB/小时) 文件系统配置容量大小(GB) 使用时长(小时)。 产品定价 HPFS按需计费定价,请参见HPFS产品价格。 卡券管理 优惠券使用规则请参见天翼云帮助中心费用中心优惠券使用。 代金券使用规则请参见天翼云帮助中心费用中心代金券使用。
        来自:
        帮助文档
        并行文件服务 HPFS
        计费说明
        计费概述
      • 管理死信队列
        导出死信消息 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“死信队列”,进入“死信队列”页面。 4. 在待导出的死信消息所在行,单击“导出消息”。 导出JSON格式的文件。 说明:如果需要批量导出死信消息,勾选待导出的多条死信消息,单击“批量导出消息”。 导出的消息字段说明如表1所示。 表1 消息字段说明 消息字段 字段说明 msgid 消息ID。 instanceid 实例ID。 topic Topic名称。 storetimestamp 存储消息的时间。 borntimestamp 产生消息的时间。 reconsumetimes 重试次数。 body 消息体。 bodycrc 消息体校验和。 storesize 存储大小。 propertylist 消息属性列表。lname:属性名称。lvalue:属性值。 bornhost 产生消息的主机IP。 storehost 存储消息的主机IP。 queueid 队列ID。 queueoffset 在队列中的偏移量。 重新投递死信消息 死信消息由于某些原因无法正常被消费者消费,请排查相关原因并解决,然后在控制台重新投递死信消息给消费者消费。 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“死信队列”,进入“死信队列”页面。 4. 选择以下任意一种方法重新投递死信消息。 在待重新投递的死信消息所在行,单击“重投”。 如需批量重新投递死信消息,勾选待重新投递的死信消息,单击“批量重投”。 须知: 死信消息重新投递成功后,此死信消息依然存在死信队列中,不会被删除。避免多次重复投递,造成重复消费。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        管理死信队列
      • 恢复副本集实例备份
        本页介绍了如何恢复副本集实例备份。 备份点恢复 恢复到已有实例 文档数据库服务产品支持对副本集规格实例的备份数据集进行数据恢复到已有实例操作,步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”进入实例列表页面。 3. 点击实例状态是“运行中”的副本集规格实例的实例名称(部分资源池为“实例id”),进入到该实例详情页。 4. 点击选择“备份恢复”页,或者点击左侧的“备份管理”菜单。 5. 进入到备份数据集列表,选择对应的备份数据集,在“操作”列,点击“恢复”按钮。 6. 在弹出的“备份点恢复”弹窗中,选择“已有实例”按钮,选择目标实例,点击“确定”按钮(部分资源池为“提交”按钮),等待数据恢复完成。 恢复到新实例 文档数据库服务产品支持对副本集规格实例的备份数据集进行数据恢复到新实例操作,步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”进入实例列表页面。 3. 点击实例状态是“运行中”的副本集规格实例的实例名称(部分资源池为“实例id”),进入到该实例详情页。 4. 点击选择“备份恢复”页,或者点击左侧的“备份管理”菜单。 5. 进入到备份数据集列表,选择对应的备份数据集,在“操作”列,点击“恢复”按钮。 6. 在弹出的“备份点恢复”弹窗中,选择“新实例”按钮,点击“确定”按钮,进入“文档数据库恢复”页面。 7. 填写好需要恢复的新实例的基础配置,实例规格, 网络配置等信息,即可完成恢复操作。 时间点恢复
        来自:
        帮助文档
        文档数据库服务
        用户指南
        恢复管理
        恢复副本集实例备份
      • 查看流控监控
        本文主要介绍 查看流控监控。 本章节指导您在控制台查看每个代理上用户/客户端/Topic的流控使用量。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控监控”,进入流控监控页面。 步骤 6 设置查询流控的参数。 表查询流控的参数说明 参数 说明 :: 统计方式 设置流控的统计方式。 前n个:统计带宽使用量排名前x 个的用户/客户端/Topic,x由您自行输入 带宽速率:统计带宽速率大于x MB/s的用户/客户端/Topic,x由您自行输入 带宽使用量:统计带宽使用量超过x %的用户/客户端/Topic,x由您自行输入 统计类型 设置流控的统计类型。 生产:统计生产消息的流控 消费:统计消费消息的流控 统计维度 设置流控的统计维度。 User/Client:统计用户/客户端的流控 Topic:统计Topic的流控 图 查询流控的参数 步骤 7 单击“查询”,查看每个代理上用户/客户端/Topic的流控使用量。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        查看流控监控
      • 创建流控
        创建Topic流控 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在页面顶端单击“Topic”,进入“Topic”页签。 步骤 7 在页面左上角单击“创建流控”,弹出“创建流控”对话框。 步骤 8 设置流控参数。 表 流控参数说明 参数名称 说明 Topic名称 输入指定Topic名称,对此Topic进行流控。流控创建完后,无法修改“Topic名称”。 生产上限速率 设置生产上限速率,单位为MB/s。为空时,表示不设置速率。 消费上限速率 设置消费上限速率,单位为MB/s。为空时,表示不设置速率。 说明 “生产上限速率”和“消费上限速率”不可同时为空。 步骤 9 单击“确定”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示流控创建成功。 进入“流控管理 > 流控列表”页面,在“Topic”页签中,在页面右上角的搜索框中输入新创建的流控名称,单击,查看新创建的流控。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        创建流控
      • 重置SASL_SSL密码
        本文主要介绍重置SASLSSL密码。 操作场景 在“用户管理”页签创建的SASLSSL用户,如果忘记了SASLSSL密码,通过重置SASLSSL密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 如果忘记了创建实例时设置的SASLSSL密码,请参考重置Kafka密码,重置密码。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置SASLSSL密码。 只有处于“运行中”状态的Kafka实例支持重置SASLSSL密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击待重置SASLSSL密码的Kafka实例名称,进入实例详情页面。 步骤 5 在“用户管理”页签,在待重置SASLSSL密码的用户所在行,单击“重置密码”。 步骤 6 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        SASL_SSL用户管理
        重置SASL_SSL密码
      • 步骤一:准备环境
        本文主要介绍分布式消息服务RabbitMQ的准备环境。 虚拟私有云 虚拟私有云(Virtual Private Cloud,以下简称VPC)为RabbitMQ专享版实例提供一个隔离的、用户自主配置和管理的虚拟网络环境。 1. 在创建RabbitMQ专享版实例前,确保已存在可用的虚拟私有云和子网。 创建方法,请参考创建虚拟私有云和子网。如果您已有虚拟私有云和子网,可重复使用,不需要多次创建。 在创建VPC和子网时应注意如下要求: 创建的VPC与使用的RabbitMQ服务应在相同的区域。 创建VPC和子网时,如无特殊需求,配置参数使用默认配置即可。 2. 在创建RabbitMQ专享版实例前,确保已存在可用的安全组。 创建方法,请参考创建安全组。如果您已有安全组,可重复使用,不需要多次创建。 使用RabbitMQ实例前,添加表1所示安全组规则,其他规则请根据实际需要添加。 表1 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 5672 0.0.0.0/0 访问RabbitMQ实例(关闭SSL加密) 入方向 TCP 5671 0.0.0.0/0 访问RabbitMQ实例(开启SSL加密) 入方向 TCP 15672 0.0.0.0/0 访问Web界面UI地址(关闭SSL加密) 入方向 TCP 15671 0.0.0.0/0 访问Web界面UI地址(开启SSL加密) 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问RabbitMQ实例,无需添加上表中的规则。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤一:准备环境
      • 重置Kafka密码
        本文主要介绍 重置Kafka密码。 操作场景 如果您忘记了创建实例时设置的SASLSSL密码,通过重置Kafka密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置Kafka密码。 只有处于“运行中”状态的Kafka实例支持重置Kafka密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重置Kafka密码。 在需要重置Kafka密码的Kafka实例右侧,单击“更多 > 重置Kafka密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,在“连接信息 > 用户名”后,单击“重置密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“用户管理”页签,在待重置Kafka密码的用户所在行,单击“重置密码”,弹出重置Kafka密码对话框。 步骤 5 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重置Kafka密码
      • ECS微服务应用接入MSE治理中心
        本章节介绍如何将部署在ECS的应用,通过安装MSE Agent的方式接入微服务治理中心 概述 部署在ECS的应用,可以通过安装MSE Agent的方式接入微服务治理中心,使用微服务治理中心提供的一系列服务治理能力。 环境规划 1.开通微服务云应用平台MSAP 开通 微服务云应用平台。 2.环境信息配置 使用微服务治理中心前,需要为应用提前规划环境、项目和分组信息。您可通过进入微服务治理控制台>应用治理>应用接入>ECS集群进行配置,也可跳转至微服务云应用平台创建。 网络通路 1.DNS配置 上报域名为内网域名,需要在DNS配置文件(/etc/resolv.conf)首行添加nameserver 100.95.0.1 才生效。 2.创建VPC终端节点 使用微服务治理中心前,需要在目标VPC中创建终端节点。创建路径:微服务治理中心控制台>应用治理>应用接入>ECS集群>网络通路。 进入应用接入页面。 点击ECS集群,选择VPC,点击创建终端节点。 点击确定授权并创建VPC终端节点。 点击确定后,刷新页面,显示VPC的终端节点状态为已创建。
        来自:
        帮助文档
        微服务引擎
        快速入门
        微服务治理中心
        ECS微服务应用接入MSE治理中心
      • 集群版初始化
        本节主要介绍HBlock集群版如何初始化。 填写初始化相关信息 1. 设置基本信息。 参数 描述 版本规格 版本规格: 免费版:基础功能永久免费使用,高级功能默认禁用,提供一次30天免费试用机会。免费版的软件升级功能将在2年后自动失效。导入商业版软件许可证可激活全部功能。 商业版:提供30天全功能试用,到期后部分管理功能将被锁定。导入商业版软件许可证可激活全部功能。 说明 免费版与商业版的功能差别详见商业版与免费版。 系统名称 指定HBlock名称。 字符串形式,长度范围是1~64,可以包含字母、数字、下划线()和短横线(),字母区分大小写,且仅支持以字母或数字开头。 登录用户名 HBlock管理员用户名。 类型:字符串 取值:长度范围是5~16,只能由数字和字母组成,字母区分大小写。默认值为storuser。 登录密码 设置管理员密码。初始化时必须设置密码。 字符串形式,长度范围8~16,至少包含以下字符中的3种:大写字母、小写字母、数字、特殊字符 (~ ! @ $ % ^ & ( ) + [ ] { } ; : , . / ?),区分大小写。不能包含:3个连续重复的字符,3个连续或反序的数字、或字母(不区分大小写),3个连续或反序的键盘序列(不区分大小写)。 2. 设置集群拓扑。 拓扑方式可以选择“拓扑文件”或者“服务器”,二选一。 拓扑文件方式 参数 描述 拓扑文件 导入集群拓扑文件。 拓扑文件为符合UTF8编码格式的JSON文件,详见集群拓扑文件。 服务器方式 :点击“添加服务器”,填写服务器信息。 参数 描述 节点名称 指定服务器节点名称。 取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 默认使用服务器ID作为节点名称。 服务器IP 要初始化服务器的IP,支持IPv4和IPv6地址。 端口号 API端口号。 注意 需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录 服务器中,用于存储用户数据的绝对路径。 可以输入一个或多个数据目录,以英文逗号(,)隔开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 容量(可用/总) 数据目录所在磁盘的可用容量和总容量。 容量配额 数据目录的容量配额,即给HBlock分配的容量配额。一旦达到配额,就立刻阻止数据写入。 支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作 校验:校验数据目录是否可用。 修改:修改数据目录。 移除:移除数据目录。 3. 设置故障域服务器方式: 设置基础存储池的故障域级别(仅集群版支持)。初始化时设置的集群拓扑中,包含的数据目录节点都加入到基础存储池中。可以选择:数据目录级别的故障域、服务器级别的故障域、机架级别的故障域、机房级别的故障域。 注意 如果故障域级别为机架或者机房,则必须使用拓扑文件导入方式进行初始化。 4. 设置网络 参数 描述 业务网络 该网段用于业务与系统之间的数据传输。IP CIDR格式。 如果指定业务网络,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP和客户端进行通信。 如果未指定业务网络,或指定了业务网络,但指定的网段与服务器所有IP均不相符,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 集群网络 用于系统内部数据传输。IP CIDR格式。 如果指定集群网络,为了保证HBlock的各个服务器之间能够正常通信,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP进行通信。 如果未指定集群网络,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 5. 设置端口。 系统使用指定端口及端口范围进行初始化,如都未指定,则使用默认端口。 注意 请确保Linux用户具有所需要端口的权限。Linux系统默认小于1024的端口不对没有root权限的Linux普通用户开放。 设置端口范围时,请避免和Linux系统的本地临时端口(iplocalportrange)范围重合,否则可能会导致HBlock服务所用的端口被占用。使用命令行cat /proc/sys/net/ipv4/iplocalportrange可以查看本地临时端口范围。 参数 描述 端口范围 未指定端口的服务将从此范围中自动取值。 取值:整型,取值为[1, 65535]。默认取值为2000020500。 说明 建议指定的端口范围至少包含500个端口。 iSCSI服务 指定iSCSI端口号。 取值:整型,取值为[1, 65535],默认端口号为3260。 数据服务 指定数据服务端口号。 取值:整型,取值为[1, 65535]。 管理服务 指定管理服务端口号。 取值:整型,取值为[1, 65535]。 元数据服务 指定元数据服务端口号。 取值:整型,取值为[1, 65535]。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        初始化HBlock
        集群版初始化
      • 集群信息
        本文向您介绍息壤智算集群详情信息,帮助您了解息壤智算集群的基本情况。 使用前提 已创建息壤智算集群。 操作步骤 1. 登录公共算力服务控制台,单击左侧导航栏中的【息壤智算集群】,进入集群列表页。 2. 单击列表页中集群名称,进入集群详情页面。 3. 息壤智算集群可以查看基本信息、业务节点信息、集群控制面实例信息并进行相关操作。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        息壤智算集群
        集群详情
        集群信息
      • 设备事件
        本节主要介绍如何在智能视图服务控制台查看设备事件。 在设备事件模块,用户可以统一查看全量的设备事件,支持快捷筛选事件发生的时间区间、事件级别和事件类型,也支持输入设备名称进行搜索。 用户也可在设备管理模块选中单个设备,切换至【设备事件】查看该设备的设备事件列表,同样支持相应的快捷筛选操作。
        来自:
        帮助文档
        智能视图服务
        用户指南
        运营中心
        设备事件
      • 列表查看
        本节主要介绍如何在智能视图服务控制台使用列表模式下的录像管理功能。 说明 仅云端录像支持列表查看。 在录像回放播放窗口的右下角,可切换为录像片段列表展示。在左侧的目录树选择不同的设备和录像日期,可在列表查看该设备当天的所有录像片段,包含录像名称、录像截图、开始时间和时长等信息,用户可以下载或播放单个录像片段。
        来自:
        帮助文档
        智能视图服务
        用户指南
        录像回放
        列表查看
      • 迁移报告
        本节为您介绍云迁移服务CMS迁移报告相关操作。 迁移报告具体分为迁移组基本信息、迁移组资源统计、迁移组迁移计划。 您可以在左侧导航栏选择迁移管理,点击【迁移报告】按钮进入[迁移报告]界面,列表展示对应迁移组名称、迁移组描述、资源数量、迁移计划个数、计划创建时间、完成时间、备注、操作等。 点击【迁移报告】按钮可以查看如图1所示 。 图1 迁移报告列表页面。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        云迁移服务模块
        迁移管理
        迁移报告
      • 迁移方案说明
        工具/命令/服务 特点 说明 DCS控制台数据迁移功能 操作简单,同时支持全量同步+增量同步 数据迁移涉及到SYNC/PSYNC命令,当源Redis实例开放了SYNC/PSYNC命令时, 支持全量同步+增量同步,否则仅支持全量同步 Rediscli Redis自带命令行工具,支持将RDB文件、AOF文件整库导入 RedisShake 在线迁移和离线迁移均支持的一款开源工具。 自行开发迁移脚本 灵活,可根据实际场景进行定制化适配
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        迁移方案说明
      • 开箱即用OpenClaw,AI云电脑秒变您的小时全能AI助理
        常见问题 如何将OpenClaw的Skills迁移至其他云电脑? Windows 系统迁移步骤:进入路径 C:UsersAdministrator.openclawskills,将该目录下所有文件夹完整复制。将复制的文件夹导入至目标云电脑,存放至路径 C:UsersAdministrator.openclawskills;若目标路径不存在,可手动创建该目录。 Ubuntu/妙逸系统迁移步骤:进入路径 /home/ctyun/.openclaw/skills,将该目录下所有文件夹完整复制。将复制的文件夹导入至目标云电脑,存放至路径 /home/ctyun/.openclaw/skills;若目标路径不存在,可手动创建该目录。 云电脑 OpenClaw 免费的 Tokens 额度是多少?消耗完是否支持购买 Tokens? 订购云电脑免费赠送 2500 万 Tokens,超出部分支持购买 Tokens 套餐,满足您 “轻度体验” 到 “重度使用” 的场景需求。 OpenClaw 云电脑开机后一直停留在黑色页面,没有进度。 这个黑框是后台服务,不要关闭,请点击桌面的 “OpenClaw 进入应用” 打开聊天页面。 OpenClaw 的后台服务打开后闪退 OpenClaw 执行指令时误删除了系统文件,如无重要数据建议重装系统恢复。 如果云电脑是内网,不能访问外网可以用吗? 不可以,必须要能访问公网。 云电脑 OpenClaw 默认打开谷歌浏览器,这个默认浏览器可以修改吗? OpenClaw 只是打开系统的默认浏览器,将您需要的浏览器设置为默认浏览器即可。
        来自:
        帮助文档
        天翼云电脑(公众版)
        最佳实践
        开箱即用OpenClaw,AI云电脑秒变您的小时全能AI助理
      • 1
      • ...
      • 222
      • 223
      • 224
      • 225
      • 226
      • ...
      • 520
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      公共算力服务

      模型推理服务

      推荐文档

      复制备份

      应用用户管理

      邀请参会方

      产品退订

      VPC安全组删除规则

      如何创建RDS数据库

      页面顶部

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号