活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云视频app下载_相关内容
      • 查看云审计日志
        本页面主要介绍天翼云数据传输服务DTS对接的云审计服务使用和查看方法。 操作场景 数据传输服务DTS现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 使用限制 云审计服务本身免费,包括时间记录以及7天内的存储和检索。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 操作事件 字段 创建实例 dtsCreateInstance 删除实例 dtsDeleteInstance 任务启动 dtsStartJob 任务暂停 dtsStopJob 操作步骤 1. 开通云审计服务。 参见开通云审计服务云审计。 2. 查看云审计事件。 参见查看审计事件云审计。 3. 在事件列表页,根据需要选择时间段、设置筛选条件,如:读写类型、事件级别、操作用户、事件来源、资源类型、资源名称、事件名称等。点击查询即可。 4. 在审计事件查询结果列表右侧操作列点击详情,可以看到更详细的事件信息。 更多云审计相关使用说明和常见问题请参考用户指南、常见问题。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        日志管理
        查看云审计日志
      • 已有天翼云Windows云主机,搭建幻兽帕鲁服务器
        本文为您介绍使用您已有的天翼云Windows云主机搭建幻兽帕鲁服务器的操作。 操作前提 如果您已购买的云主机位于【青岛20、西南1】资源池(其余资源池镜像正在加载中),且满足以下条件,请参考本文部署幻兽帕鲁服务器。 操作系统:Windows 配置:4核16G及以上 已开通公网IP 云主机未到期 操作步骤 1. 登录云主机控制台,前往您已购买的云主机所在的资源池。确认云主机状态为“已关机”,则可以进行重装操作系统操作。 点击“更多”按钮,点击下拉菜单中“一键重装”按钮。 2. 在重装操作系统弹窗中,镜像类型选择“应用镜像”,并在重装选择下拉菜单中选择“Windows”、“幻兽帕鲁(Palworld)”。 设置并确认密码,点击“确定”按钮,完成重装操作系统操作。 3. 返回云主机控制台,选中已完成重装操作系统的云主机,点击“开机”按钮。确认云主机状态为“运行中”,则可以进行后续操作。 4. 添加安全组规则。 在云主机列表中点击云主机名称,进入云主机详情页。点击安全组页签,点击“添加规则”按钮,新增IP放行。 在添加规则弹窗中: 1)协议选择“UDP”。 2)端口范围填写“8211”。 端口也可自定义进行修改,修改后可提高服务器的安全性:Windows镜像云主机登录后,将C:steamcmd路径下start.bat文件中修改最后一行,改为: start "" "C:PalServerPalServer.exe" portxxx 其中xxx为165535中的任意希望启用的端口,并重新启动服务器即可生效。 3)地址处将“1.1.1.1”更改为自己的IP地址。 点击“确定”,完成安全组规则修改。 5. 登录游戏。 在云主机控制台找到云主机的公网IP地址。 启动游戏,在游戏界面选择“加入多人游戏(专用服务器)”。在地址输入框输入该地址,点击“联系”即可进入帕鲁世界(“:8211”不用进行修改)。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        部署Palworld幻兽帕鲁服务器最佳实践
        已有天翼云Windows云主机,搭建幻兽帕鲁服务器
      • 权限管理
        本文为您介绍云防火墙(原生版)的权限管理能力,支持通过IAM实现对云防火墙(原生版)的访问控制、权限分配。 云防火墙(原生版)通过IAM(统一身份认证服务,Identity and Access Management)对用户权限进行管理,IAM可以帮助用户安全地控制云防火墙(原生版)服务的访问及操作权限。 默认情况下,天翼云主账号拥有管理员权限,而主账号创建的IAM用户没有任何权限。IAM用户需要加入用户组,并给用户组授权相应策略后,IAM用户才能获得策略对应的权限,才可以基于被授予的权限对云服务进行操作。 IAM应用场景 IAM策略主要面向同一主账号下,对不同IAM用户授权的场景: 您可以为不同操作人员或应用程序创建不同IAM用户,并授予IAM用户刚好能完成工作所需的权限,比如查看权限,进行最小粒度授权管理。 新创建的IAM用户可以使用自己的登录名和密码登录控制台,实现多用户协同操作时无需分享账号密码的安全要求。 IAM策略说明 天翼云为云防火墙(原生版)提供如下系统策略 。如果系统策略不满足授权要求,可以创建自定义策略 ,自定义策略是对系统策略的扩展和补充,详情请参见创建自定义策略。 策略名称 策略描述 类别 授权范围 CFW admin 管理员,拥有云防火墙(原生版)全部操作权限。 系统策略 全局级 CFW viewer 仅拥有云防火墙(原生版)查看权限。 系统策略 全局级
        来自:
        帮助文档
        云防火墙(原生版)
        用户指南(C100)
        权限管理
      • 搭建云上容灾专有网络
        操作场景 虚拟私有云可以为您的容灾服务器提供隔离的、用户自主配置和管理的云上虚拟网络环境。 异步复制其实就是将本地主数据中心中需要容灾的服务器的数据,实时复制到云上用户的专有网络中。当本地数据中心发生重大故障时,可以将业务切换到云上VPC中运行容灾服务器上,从而保持业务的连续性。 创建云上专有网络时需要考虑的因素: 容灾区域 需要根据业务对容灾系统的实际要求进行选择,如生产站点和容灾站点间的物理距离、网络性能以及网络成本等因素来选择容灾区域,如业务要求生产站点和容灾站点间的物理距离不低于100KM,网络时延小于100ms,同时成本限制不能使用专线等。 本地数据中心和天翼云VPC间的连接网络 公网:适用于数据变化量不大,且本地生产数据中心的系统无需频繁访问云上资源的场景。 VPN:适用于数据变化量不大,本地生产数据中心需要随时连接天翼云VPC内业务的场景。如用户有部分业务部署在天翼云,本地数据中心的业务当前就是通过VPN与云上的业务进行交互,进行异步复制时就可以使用该VPN连接。 云专线:针对数据量较大且应用较复杂的场景,通常需要根据业务的具体数据变化量进行规划。 VPC的网段 用于运行切换或者容灾演练时创建的ECS,如果需要保持切换或者容灾演练创建的ECS的IP地址和本地数据中心的生产服务器一致,可以将VPC的网段和本地生产数据中心的网段设置成相同的。业务切换或者容灾演练时,就可以保持服务器的IP地址不变,无需修改相关的配置。 操作步骤 您可以根据您的整体网络规划创建云上专有容灾网络,具体创建操作请参见虚拟私有云帮助中心。
        来自:
        帮助文档
        存储容灾服务
        快速入门
        异步复制
        搭建云上容灾专有网络
      • 如果忘记远程登录密码怎么办?
        如果忘记了远程登录的密码,用户可以通过重置密码操作重新设置登录密码。 前提条件 当云主机处于运行中状态时,可进行重置密码操作。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击控制中心顶部的,选择资源所在地,此例我们选择华北2。 3. 单击左侧导航栏“产品服务列表”,选择“计算>轻量型云主机”。 4. 进入轻量型云主机列表界面,在目标轻量型云主机“操作”列下拉“更多”选择“重置密码”。 您也可以单击目标主机“实例名称”进入目标主机详情页,单击右侧顶部“更多”,下拉选择“重置密码”进行密码重置。 5. 出现重置密码弹框,用户需要在弹窗内输入“密码”及“确认密码”两项,“确认密码”需与“密码”一致。 说明 密码规则:8~30 个字符,必须同时包含三项(大写字母、小写字母、数字、 ()~!@ $%^&+{}[]:;'<>,.?/ 中的特殊符号),且不能以斜线号(/)开头。 6. 核对后单击“确定”完成密码修改,密码重置后,用户无须重启主机,即可生效新密码。
        来自:
        帮助文档
        轻量型云主机
        常见问题
        登录链接类
        如果忘记远程登录密码怎么办?
      • 产品优势
        内网DNS产品为您提供优质的服务体验,本文带您了解内网DNS的产品优势。 多AZ容灾,就近响应 以其中一个租户的www.example.com域名为例,同一个域名对应的后端实服务器组可以跨AZ部署,从而实现域名解析服务AZ级别的高可用。 具体实现如下图:DNS解析服务器采用集群部署方式,和Client 同AZ的DNS服务器会优先响应DNS的查询。当AZ1的DNS服务器故障时,会自动由AZ2的DNS服务器响应DNS查询请求。 高性能 天翼云的内网DNS可以同时支持裸金属和虚拟机部署,具备高性能和强大的处理能力,可以满足大规模应用场景下的需求。最高QPS可支持到2000w+。 天翼云域名解析服务具备网络容灾与横向扩容能力,实现网络无损扩容,面临网络故障或高负载也能保障高可用性和稳定性。 安全可靠 内网域名就是在云内网有效的域名,仅在域名关联的VPC内有效,互联网无法攻击内网DNS,可以有效防护外部攻击和解析劫持。其他未关联的VPC也无法查询到对应的服务器,界定了您的内部系统访问边界,将核心数据访问限制在最小范围。 对于保存核心数据的云服务器,不绑定弹性IP,使用内网DNS为其提供域名解析服务,这样,既保证了核心数据的安全性,又实现了对核心数据的访问。
        来自:
        帮助文档
        内网DNS
        产品简介
        产品优势
      • 搭建Spark应用
        本文为您介绍如何搭建Spark应用。 背景信息 Spark是新一代分布式内存计算框架,Apache开源的顶级项目。相比于Hadoop MapReduce计算框架,Spark将中间计算结果保留在内存中,速度提升10~100倍;同时它还提供更丰富的算子,采用弹性分布式数据集(RDD)实现迭代计算,更好地适用于数据挖掘、机器学习算法,极大提升开发效率。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 确保kubectl工具已经连接目标集群。 操作步骤 步骤一:准备镜像和创建命名空间namespace 1. 从dockerHub镜像仓库获取Spark相关镜像。 docker pull index.docker.io/caicloud/spark:1.5.2 docker pull index.docker.io/caicloud/zeppelin:0.5.6 2. 创建命名空间。 namespacesparkcluster.yaml apiVersion: v1 kind: Namespace metadata: name: sparkcluster labels: name: sparkcluster $ kubectl create f namespacesparkcluster.yaml 3. 查看Namespace。 $ kubectl get ns NAME LABELS STATUS default Active sparkcluster namesparkcluster Active 步骤二:启动master服务 1. 创建无状态工作负载,sparkmasterdeployment.yaml可参考如下: sparkmasterdeployment.yaml apiVersion: apps/v1 kind: Deployment metadata: name: sparkmastercontroller namespace: sparkcluster spec: replicas: 1 selector: matchLabels: component: sparkmaster template: metadata: labels: component: sparkmaster spec: containers: name: sparkmaster image: index./spark:1.5.2
        来自:
      • DNS概述
        本节介绍网络的用户指南:服务发现DNS概述。 创建集群时会自动安装CoreDNS插件,用来提供集群内部域名解析。在kubesystem命名空间下,可以查看到CoreDNS相关Pod: kubectl nkubesystem get po l k8sappkubedns NAME READY STATUS RESTARTS AGE coredns84f6584c855rmgq 1/1 Running 0 41h coredns84f6584c85rs4n6 1/1 Running 0 41h 作为集群内部DNS服务器,CoreDNS会将Service域名与Service的IP记录起来,Pod可以向CoreDNS查询Service域名获取对应IP地址。Pod访问的Service域名格式为..svc.,其中为Service名称,为命名空间名称,为集群内部域名,默认为cluster.local。若客户端和服务端在同一个命名空间下,可通过直接访问。建议在集群内部使用Service域名访问Pod,无需感知具体Service地址。 默认情况下,会将Coredns Service的地址作为域名解析服务地址写在Pod的/etc/resolv.conf kubectl nkubesystem get svc kubedns NAME TYPE CLUSTERIP EXTERNALIP PORT(S) AGE kubedns ClusterIP 10.96.0.10 53/UDP,53/TCP,9153/TCP 9d kubectl exec it nginxdemo748fb499d78f2t5 cat /etc/resolv.conf search default.svc.cluster.local svc.cluster.local cluster.local nameserver 10.96.0.10 options ndots:5 Pod内通过Service域名访问后端Pod的DNS解析过程,如下图所示:
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        服务发现DNS
        DNS概述
      • 云服务通过KMS实现服务端加密
        本文为您介绍通过KMS实现云硬盘、对象存储、弹性文件等云服务的数据加密最佳实践。 密钥管理系统与天翼云产品无缝集成,在云产品中,仅需要选择在KMS中托管的主密钥,即可轻松实现对云产品数据的服务端加密。 云产品通过集成KMS实现对云上数据的加密存储,密钥由KMS托管,满足监管合规要求。整个服务端加密过程对用户透明无感知,只需要开启加密功能并指定密钥即可。同时用户无须自定构建和维护密钥管理基础设施,节省开发成本。 用户可以选择KMS为云产品自动创建的默认主密钥加密,也可以选择通过KMS创建的用户主密钥。其中默认密钥不收取密钥托管费用。 场景示意图 云产品开启服务端加密流程 加密云硬盘 在创建云硬盘页面,选择开启“磁盘加密”,并在密钥列表中选择加密密钥。 加密对象存储 在创建对象存储Bucket页面,选择开启“服务端加密”,并在密钥列表中选择加密密钥。 加密弹性文件 在创建文件系统页面,选择开启KMS加密,并在密钥列表中选择加密密钥。
        来自:
        帮助文档
        密钥管理
        最佳实践
        云服务通过KMS实现服务端加密
      • 审计
        海量文件服务支持对用户操作进行审计,本文介绍相关操作说明。 目录 操作场景 使用限制 关键操作列表 操作步骤 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 审计日志转储:支持将审计日志周期性的转储至对象存储服务(ZOS)下的ZOS桶。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。若您使用云审计提供的转储功能,需要开通对象存储服务并支付产生的费用,该费用以对象存储产品的计费为准,参考计费说明对象存储。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        高级管理
        审计
      • 准备工作
        本文介绍应用托管的准备工作。 注册天翼云账号 如果您已经拥有一个天翼云实名账号可直接跳过本步骤,如果您还没有天翼云账号,具体可参见注册天翼云账号。 实名认证 具体可参见实名认证模块对天翼云账号进行实名认证。 账户充值 您需要确保天翼云实名账户中的余额充足,具体天翼云账户充值步骤请参见账户充值。
        来自:
        帮助文档
        应用托管
        快速入门
        准备工作
      • Windows云主机搭建了FTP,通过公网无法访问
        本文为您介绍Windows云主机搭建了FTP,通过公网无法访问的解决方法。 问题描述 本文档解决的是在天翼云创建的windows操作系统的云主机,其上通过IIS(信息服务管理器)搭建FTP站点后,通过公网无法访问的问题。 造成问题的原因 1、windows云主机内防火墙拦截了FTP进程。 2、云主机相关的安全组拦截了外网的连接和访问。 windows云主机配置FTP防火墙 这里演示的是windows2008的操作系统,其他系统的可自行搜索开启方式。 具体操作步骤如下。 1. 判断云主机是否开启IIS。在云主机内点击“开始>控制面板>打开或关闭windows功能进入到服务器管理器”,查看角色下是否有IIS,如无执行步骤2进行开启,若已经开启请执行步骤3。 图1 检查云主机是否开启IIS信息服务管理器 2. 在服务器管理器界面,单击角色,并添加角色,按添加角色的向导,在服务器角色中 选择web服务器IIS ,点击下一步进行角色服务设置,在web服务器的角色服务中选择FTP 后点击安装。 图2 开启IIS信息管理服务器搭建FTP站点步骤1 图3 开启IIS信息管理服务器搭建FTP站点步骤2 图4 开启IIS信息管理服务器搭建FTP站点步骤3
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        文件上传/数据传输
        Windows云主机搭建了FTP,通过公网无法访问
      • 基本概念
        本节主要介绍基本概念。 Kubernetes是业界主流的开源容器编排平台。为了让用户可以方便地在云上使用Kubernetes管理容器应用,推出了基于原生Kubernetes的云容器引擎服务。 云容器引擎(Cloud Container Engine,简称CCE)提供高度可扩展的、高性能的企业级Kubernetes集群,支持运行Docker容器。借助云容器引擎,您可以在云上轻松部署、管理和扩展容器化应用程序。 云容器引擎整合了天翼云的计算、网络、存储等服务,支持多可用区(Available zone,简称AZ)容灾等技术构建高可用Kubernetes集群,并提供高性能可伸缩的容器应用管理能力,简化集群的搭建和扩容等工作,让您专注于容器化应用的开发与管理。 名词解释 使用云容器引擎服务,会涉及到以下基本概念: 集群:是指容器运行所需云资源的集合,包含了若干台云服务器、负载均衡器等云资源。 实例(Pod):由相关的一个或多个容器构成一个实例,这些容器共享相同的存储和网络空间。 工作负载:Kubernetes资源对象,用于管理Pod副本的创建、调度以及整个生命周期的自动控制。 Service:由多个相同配置的实例(Pod)和访问这些实例(Pod)的规则组成的微服务。 Ingress:Ingress是用于将外部HTTP(S)流量路由到服务(Service)的规则集合。 Helm应用:Helm是管理Kubernetes应用程序的打包工具,提供了Helm Chart在指定集群内图形化的增删改查。 镜像仓库:用于存放Docker镜像,Docker镜像用于部署容器服务。 您在使用前可以了解更多Kubernetes相关知识,具体请参见
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        基本概念
      • 无法远程登录Linux云主机怎么办
        本文介绍无法远程登录Linux云主机怎么办 无法远程登录Linux云主机可以使用以下方式进行问题排查: 1. 检查资源状态是否正常 请在控制台检查云服务器资源状态是否为“运行中”。如果云服务器状态为“关机”,请先开机再登录云服务器。 2. 检查登录凭证 请检查您在创建ECS时设置的登录凭证。 密码:请确认使用的登录密码是否准确,如果忘记密码可以通过重置密码功能重新设置云服务器登录密码。重置密码后请确保已重启云服务器使新密码生效。 创建后设置:如果创建时未设置登录凭证,云服务器创建成功后请单击“操作”列下的“重置密码”,根据界面提示,为弹性云服务器设置密码,请确保已重启云服务器使新密码生效。 3. 检查云主机负载是否过高 云主机的带宽和CPU利用率过高可能会导致无法登录。您可以通过云监控服务创建告警任务,当CPU或带宽利用率高时,系统会自动发送告警给您。 如果是CPU占用过高导致的无法登录请参考以下操作降低CPU使用率: 关掉一些暂时不使用的进程。 重启云主机。 变更云主机规格以升级vCPU、内存。 检查是否是带宽超限导致的无法登录,可尝试进行扩大带宽操作,扩大带宽的操作请参考弹性IP修改带宽。 完成上述操作后,再次重试远程连接云主机。 4. 检查安全组配置是否正确 在云主机的详情页面选择“安全组”页签,查看安全组入方向规则中已添加22端口。 如果没有,添加入方向的22端口,具体操作参见虚拟私有云添加安全组规则。 完成上述操作后,再次重试远程连接云主机。 5. 其他解决方案 通过上述排查后,仍然不能连接Linux实例,请您保存自助诊断结果,通过提交工单联系天翼云的技术支持寻求帮助。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        远程连接类
        无法远程登录Linux云主机怎么办
      • 查看备份详情
        本文带您熟悉如何查看自己已有的备份副本。 操作场景 创建云主机备份任务下发或完成后,您可以通过各种筛选条件在备份列表查看备份详情。创建云主机备份的具体操作可参考创建云主机备份。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方点击图标,选择所需的资源池节点,以下操作选择上海上海36。 3. 在系统首页,选择“存储>云主机备份”。 4. 选择“备份副本”页签,查看备份。 5. (可选)您可以通过“状态”列筛选备份副本。下表为各种状态的说明。 状态 状态属性 说明 全部 显示所有状态的备份。 可用 稳定状态 备份完成之后的稳定状态。该状态下可以执行各种操作。 创建中 中间状态 云主机备份的第一步,系统准备开始创建云主机备份。 准备创建快照 中间状态 云主机备份的第二步,准备创建一致性快照/非一致性快照。 非一致性创建快照中 中间状态 正在进行非一致性快照的备份。 一致性创建快照中 中间状态 正在进行一致性快照备份。 注:系统默认优先创建一致性快照备份,当一致性快照备份创建失败后,会尝试创建非一致性快照。 创建备份中 中间状态 将制作完成的云主机备份导出到备份存储池中。 恢复数据中 中间状态 将已经完成的备份恢复到源云主机上。 删除中 中间状态 正在删除已经完成的云主机备份。 错误 稳定状态 云主机备份发生了异常,请重新进行备份。 6. (可选)您可以通过“备份开始时间”列对备份进行排序和筛选。 7. 您也可以在备份列表右上角的搜索框中输入要查找的备份名称进行搜索,搜索到的备份会显示在备份列表中。
        来自:
        帮助文档
        云主机备份 CSBS
        用户指南
        备份管理
        查看备份详情
      • 路由表关联子网
        本文将帮助您快速了解路由表如何管理子网。 通过将路由表关联到某些子网,可以将子网的流量按照路由规则进行匹配转发。子网必须关联路由表后,才能进行正常的流量转发。本文将帮助您快速了解路由表如何关联子网。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 登录控制中心,并且已经完成虚拟私有云、子网、路由表和路由规则的创建。 操作步骤 1. 进入“网络控制台”页面,点击“路由表”选项。 2. 找到对应的路由表,点击路由表名称,进入路由表详情页。 3. 在路由表详情页,找到“关联子网”页签,点击“关联子网”,进入关联子网页面。 4. 在关联子网页面,选择可关联的子网,点击“确定”按钮即可。 5. 您也可以通过更换路由表,将子网从某个路由表换绑至其他路由表。
        来自:
        帮助文档
        虚拟私有云 VPC
        路由表
        路由表关联子网
      • 计费类
        公共传输通道是否计费? 公共传输通道在天翼云官网为免费产品。如需开通公共传输通道服务,请联系客户经理咨询具体价格及计费方式,客户经理会与您沟通商务内容。签署合同后,客户经理将协助您开通公共传输通道业务,并跟进后续公共传输通道业务的变更和退订等相关业务。 公共传输通道的计费规则是什么? 公共传输通道收费项分为网络使用费和路由条目增强服务费;其中网络使用费分为三类:一是天翼云资源池站点网络使用费,二是客户站点网络使用费,三是第三方云站点使用费。 路由条目如何收费? 如果客户VPN站点的路由条目数超过该站点的默认标准,对超出部分按月以每条20元的标准收取路由条目增强服务费。 站点实例如何停止收费? 站点实例默认自动续订,若有意终止公共传输通道服务的使用,请您务必执行退订操作。
        来自:
        帮助文档
        公共传输通道
        常见问题
        计费类
      • 创建事件订阅
        本文为您介绍创建事件订阅任务的操作场景、前提条件和操作步骤。 操作场景 场景一:事件通知 使用云监控事件订阅功能,可以及时通过短信、邮件等通知渠道,实时感知云资源异常事件。 场景二:事件数据存储及分析 使用云监控事件订阅功能,您可将资源监控的事件数据,实时地推送到归档数据库或数据仓库。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 注意 事件订阅任务,如选择“配置事件订阅”,需提前创建订阅渠道。(入口:云监控服务>数据订阅>订阅渠道) 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控”,进入监控概览页面。 4. 单击左侧“事件监控”>"事件订阅"菜单,进入事件订阅任务列表。 5. 单击“创建事件订阅”功能,进入事件订阅创建二级页面。 6. 创建订阅任务参数配置如下: 模块 参数 参数说明 配置示例 备注 选择订阅事件 服务维度 选择需要订阅数据的服务维度信息,支持多选 云主机云主机 选择订阅事件 监控对象类型 具体实例 选择订阅事件 监控对象 选择资源实例对象 具体实例 选择订阅事件 监控事件 选择监控事件,支持多选 选择订阅事件 策略 发生即触发/X分钟内,累计发送N次 发生即触发 选择订阅事件 沉默时间 选择通知沉默时间 5分钟 表示同一类事件重复发生,事件通知后进入某段时间(默认5分钟)的沉默期,沉默期内不再重复通知 通知方式 通知联系人组 配置事件通知 接收对象 选择通知对象联系组 配置事件通知 触发场景 事件发生 配置事件通知 通知渠道 选择事件通知渠道,包括:邮箱、短信、语音(需订购语音资源包) 短信 配置事件通知 接口URL 填写回调webhook地址,最多支持填写5个地址 配置事件通知 推动渠道 选择已创建的订阅渠道 订阅信息 名称 填写自定义事件订阅任务名称 testtask 订阅信息 描述 填写事件订阅任务描述信息 说明 1、事件订阅任务下事件通知、事件订阅至少需填写一项。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        创建事件订阅
      • 被恶意攻击或盗刷产生的流量是否计费
        本文解释被恶意攻击或盗刷产生的流量是否计费。 客户流量如果被恶意攻击或恶意盗刷,需要自行承担恶意访问产生的流量费用,因为该过程中确实产生了天翼云CDN加速带宽资源消耗。 如果客户的业务存在潜在的被恶意访问或攻击的风险,建议叠加Web应用防火墙(边缘云版)来应对恶意攻击,详情请见:高额账单风险预警。
        来自:
        帮助文档
        CDN加速
        常见问题
        订购计费
        被恶意攻击或盗刷产生的流量是否计费
      • 云审计服务支持的关键操作
        此小节介绍云审计服务支持的关键操作。 如何查看云审计日志 开启了云审计服务后,系统开始记录DBSS资源的操作。云审计服务管理控制台保存最近7天的操作记录。 查看DBSS的云审计日志 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“管理与监管 > 云审计服务”,进入云审计服务信息页面。 3. 单击左侧导航树的“事件列表”,进入事件列表信息页面。 4. 单击事件列表上方的“Region”,设置对应的操作事件条件。当前事件列表支持四个维度的组合查询. “操作用户”:在下拉框中选择某一具体的操作用户,此操作用户指用户级别,而非租户级别。 “事件级别”:可选项为“所有事件级别”、“normal”、“warning”、“incident”,只可选择其中一项。 可在页面右上角选择查询最近1小时、最近1天、最近1周及自定义时间段的操作事件。 5. 单击“查询”,查看对应的操作事件。 6. 在需要查看的记录左侧,单击展开该记录的详细信息,展开记录如图所示。 7. 在需要查看的记录右侧,单击“查看事件”,弹出一个窗口,如图所示,显示了该操作事件结构的详细信息。 云审计服务支持的DBSS操作列表 数据库安全服务通过云审计服务(Cloud Trace Service,CTS)为用户提供云服务资源的操作记录,记录内容包括用户从管理控制台或者开放API发起的云服务资源操作请求以及每次请求的结果,供用户查询、审计和回溯使用。 云审计服务支持的DBSS操作列表如表所示。 操作名称 资源类型 事件名称 创建实例 dbss createInstance 删除实例 dbss deleteInstance 开启实例 dbss startInstance 关闭实例 dbss stopInstance 重启实例 dbss rebootInstance 实例状态变化 dbss cloudServiceInstanceStatus 创建包周期实例 dbss cloudServiceInstanceCreate 实例元数据变化 dbss updateMetaData
        来自:
        帮助文档
        数据库安全
        用户指南
        云审计服务支持的关键操作
      • 应用场景
        说明:本章会介绍天翼云RDS产品应用场景 读写分离 MySQL数据库的主实例和只读实例都具有独立的连接地址,每个云数据库MySQL单机实例、主备实例最多支持创建5个只读实例。 用户只需通过添加只读实例的个数,即可不断扩展系统的处理能力,无需更改应用程序。 数据多样化存储 关系型数据库服务支持与分布式缓存服务区Memcache、Redis和对象存储服务等存储产品搭配使用,实现多样化存储扩展。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        产品简介
        应用场景
      • 查看身份提供商
        本文为您介绍如何查看身份提供商的详情。 操作步骤 1. 管理员登录IAM控制台。 2. 点击左侧导航窗格的“身份提供商管理”。 3. 点击身份提供商列表中操作栏的“查看”按钮,即可查看详情。 4. 查看身份提供商会展示身份提供商的详细信息和对应身份提供商的登录地址,可以下载之前配置的元数据和更新元数据文件。
        来自:
        帮助文档
        统一身份认证(一类节点)
        用户指南
        身份提供商管理
        查看身份提供商
      • 验证域名
        SSL证书或证书管理服务到期前30天,天翼云将会自动为您续期证书。对于手动验证域名的证书,您需及时验证域名。 约束与限制 手动DNS验证的域名解析只能在您的域名管理平台上进行操作,具体的解析方法以域名服务商提供的解析方法为准。 前提条件 绑定的域名须做实名认证,如果未做实名认证,请前往您的域名服务商处完成域名实名认证。 获取域名验证信息 1. 登录证书管理服务控制台。 2. 选择需要进行域名验证(“状态/申请进度”为“申请审核中待域名验证”)的证书,单击“操作”列的“证书验证”。 3. 在证书验证页面,查看并记录解析记录的记录类型 、主机记录 和记录值。 在天翼云云解析服务器上进行DNS验证 1. 下面以天翼云解析为例,演示为域名添加DNS解析记录过程。如果您域名对应的DNS域名解析服务不在天翼云,请您前往域名对应的DNS域名解析商添加解析记录。 1. 使用域名持有者所在的天翼云账号,登录云解析服务管理控制台。 2. 在需要添加DNS解析记录的域名记录操作列,单击“解析设置”。 3. 在添加记录面板,将域名认证获取到的验证信息进行添加,填写规则参见下表。 参数 填写说明 主机记录 证书的验证信息对话框,域名服务商返回的“主机记录”。 记录类型 证书的验证信息对话框,域名服务商返回的“记录类型”。 线路类型 选择“默认”。 记录值 证书的验证信息对话框,域名服务商返回的“记录值”。 MX优先级 TTL 选择默认值,不作修改。 4. 单击“√”完成记录添加。 2. 成功配置解析记录后,等待CA中心对DNS验证信息进行审核,审核通过后,证书变为“已签发”状态。
        来自:
        帮助文档
        证书管理服务
        用户指南
        SSL证书
        管理SSL证书
        验证域名
      • 修改默认路由
        本文介绍如何修改云堡垒机(原生版)实例的默认路由。 云堡垒机(原生版)实例的默认路由指向用户VPC的默认网关,若用户需要临时修改默认路由,可参考本文进行操作。 注意 本操作仅用于临时修改实例的默认路由,重启实例后修改的默认路由会失效,恢复原有路由。 约束限制 仅v2.12及以上版本支持修改默认路由。若实例版本较低,请参见升级实例版本进行升级。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > 云堡垒机(原生版)”,进入云堡垒机实例管理页面。 4. 选择需要修改默认路由的堡垒机实例,单击“更多 > 修改默认路由”。 5. 进入修改默认路由页面,单击“下一跳网关(仅内网)”列的按钮,在弹出的窗口中配置内网IP地址后,单击“确定”。 6. 单击“是否生效”列的开关,开关开启,修改的默认路由才生效。 7. 配置完成后,单击“确定”。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        实例管理
        修改默认路由
      • 告警规则:获取告警服务列表
        接口功能介绍 获取监控/告警服务的服务列表。 接口约束 无。 URI GET /v4/monitor/queryalarmservices 请求参数 Query参数 无。 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 返回状态码(800为成功,900为失败),默认值:800 800 errorCode String 失败时的错误代码,参见公共错误码说明 message String 失败时的错误描述,一般为英文描述 Success msgDesc String 失败时的错误描述,一般为中文描述 成功 returnObj Object 返回对象 returnObj 表returnObj 参数 参数类型 说明 示例 下级对象 services Array of Objects 服务列表 service 表service 参数 参数类型 说明 示例 下级对象 serviceName String 服务名 ecs description String 描述 云主机 请求示例 GET /v4/monitor/queryalarmservices 响应示例 json { "statusCode": 800, "returnObj": { "services": [ {"serviceName": "ecs", "description": "云主机"}, {"serviceName": "evs", "description": "云硬盘"}, {"serviceName": "cdci", "description": "云间高速"}, {"serviceName": "sdwan", "description": "天翼云SDWAN"}, {"serviceName": "pms", "description": "物理机"}, {"serviceName": "elb", "description": "负载均衡"}, {"serviceName": "scaling", "description": "弹性伸缩"}, {"serviceName": "ippool", "description": "弹性IP和共享带宽"}] }, "errorCode": "", "message": "Success", "msgDesc":"成功" }
        来自:
        帮助文档
        云监控服务
        API参考
        API
        告警服务
        告警规则
        告警规则:获取告警服务列表
      • 变更规格
        本章节为您介绍如何升级数据库审计版本。 数据库审计支持升级实例版本或存储扩容大小。 约束限制 若首次进行实例存储扩容,则无法和实例版本一起升级,请分批次升级。 数据库审计实例只支持升配不支持降配。 升级步骤 1. 登录数据库审计控制台。 2. 选择需要升级的实例,选择“更多 > 变更规格”。 注意 “一类节点”区域的实例,只有运行状态为“关机中”可以执行升级操作。若实例未关闭则需要关闭实例。 3. 在跳转的页面中选择需要升级的版本和数据盘扩容大小。 4. 选择完成后,勾选“我已阅读并同意《天翼云数据库审计产品服务协议》”,单击“提交订单”。 注意 “二类节点”区域的实例,数据库审计实例控制台不支持直接对您的云主机规格进行升级,若需升级云主机配置请自行参考云主机变更规格。
        来自:
        帮助文档
        数据库审计
        计费说明
        变更规格
      • 云产品集成KMS加密概述
        本文为您介绍KMS集成云产品提供服务端加密能力详情。 密钥管理服务(KMS)与云硬盘、对象存储、弹性文件、关系型数据库MYSQL版等产品实现了服务端集成,在使用这些云服务时,可通过密钥管理服务实现对数据的加解密,并集中使用密钥管理服务(KMS)对密钥进行管理。 支持服务端加密的密钥类型 服务端加密支持选择默认密钥及用户自行创建的用户主密钥,具体可选择的密钥类型如下。 密钥创建者 密钥类型 密钥算法 云产品 默认密钥 AES256(默认) 用户自行创建 用户主密钥软件 AES256 用户自行创建 用户主密钥硬件 AES256 SM4 默认密钥 系统为云产品自动创建的用于服务端加密的默认密钥,默认密钥与云产品对应,每个天翼云账号下的每个云产品在每个资源池支持创建1个默认密钥。 默认密钥的别名定义为alias ,例如aliasecs。 默认密钥的密钥材料由KMS生成,不支持导入外部密钥材料,同时不支持自动轮转、启用/禁用、计划删除、自定义别名等操作。 用户主密钥 云产品加密时,可选用户在KMS服务中自建的用户主密钥,密钥类型为对称密钥,算法支持AES256、SM4,保护级别可选软件保护、硬件保护。 用户主密钥按照KMS服务标准资费进行计费,请您确保账户余额充足,避免因KMS服务冻结导致云产品无法正常调用KMS服务进行加解密操作,云产品可能会出现异常。 用户主密钥支持计划删除,操作计划删除前请确保该密钥非未被用于云产品加密,避免删除后导致云产品无法正常加解密而出现异常。为避免误删,您可以为密钥开启删除保护功能。 注意 当前云产品加密仅支持选择按需版本中的自建用户主密钥,当前包周期版本中的用户主密钥暂不支持做云产品加密使用。若您为2024年9月10日之后购买了KMS包周期服务,您可选择使用默认密钥进行云产品加密。
        来自:
        帮助文档
        密钥管理
        用户指南
        云产品服务端加密
        云产品集成KMS加密概述
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 创建实例
        本文介绍分布式消息服务RocketMQ的实例列表操作内容。 订购前准备 在创建天翼云分布式消息服务RocketMQ实例之前,您需要做一些准备工作。 首先,您需要设置一个虚拟私有云(VPC),这是一个隔离的网络环境,用于托管RocketMQ实例。 接下来,您需要创建一个子网,它是VPC内部的一个子网络,用于划分不同的部分和区域。 最后,您需要配置一个安全组,用于控制入站和出站的流量规则,以保证RocketMQ实例的安全性。 每个分布式消息服务RocketMQ实例都会被部署在特定的VPC中,并与特定的子网和安全组相关联。这种方式可以让您自主配置和管理RocketMQ实例的网络环境,并提供安全保护策略。如果您已经有了现成的VPC、子网和安全组,可以重复使用它们,无需重复创建。这样可以节省时间和资源,并确保一致性和可靠性。 VPC和子网 VPC和子网可重复使用,您也可以使用不同的VPC和子网来配置RocketMQ实例,您可根据实际需要进行配置。在创建VPC和子网时应注意如下要求: VPC与使用的天翼云分布式消息服务RocketMQ服务应在相同的区域。 如无特殊需求,创建VPC和子网的配置参数使用默认配置即可。 创建VPC和子网的操作请参考虚拟私有云创建VPC、子网搭建私有网络。 若需要在已有VPC上创建和使用新的子网,请参考虚拟私有云子网管理创建子网。 要注意的是: 如果用户需要创建ipv4实例,则VPC子网只需配置ipv4子网。 如果用户需要创建ipv6实例,则vpc子网只需配置ipv4/ipv6双栈子网。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        创建实例
      • 物理机Agent管理
        本文为您介绍安装物理机监控Agent的操作方法。 前置工作 安装包公网下载: 安装包下载链接 解压安装包telegrafmonitor.tar.gz。 tar zxvf telegrafmonitor.tar.gz 说明 目前物理机创建时自动安装监控Agent,在“高级配置”勾选“开启详细监控”即可。 本文主要介绍通过离线文件方式安装物理机Agent。同时,当前离线安装方式暂未支持windows操作系统。 linux操作系统安装 1、判断操作系统的架构(确定当前裸金属是否使用华为昇腾npu,如用NPU 参见“NPUlinux操作系统安装”章节 ) 进入到baremetal文件中的linux文件夹中,使用以下命令判断系统的架构: arch 2、拷贝文件 若是x8664(amd64)架构下的裸金属产品则使用以下命令将相关安装文件拷贝到linux文件夹下 cp ./amd64/telegraf cp ./amd64/size.txt cp ./conf/telegraf.conf 若是arm64或arch64架构下的裸金属产品则使用以下命令将相关安装文件拷贝到linux文件夹下 cp ./arm64/telegraf cp ./arm64/size.txt cp ./conf/telegraf.conf 3、安装监控插件 裸金属使用以下命令安装监控插件,安装过程中的错误信息可以忽略,大概需要一分钟左右。 ./updateagent.sh abc 1 安装成功的界面信息如下图所示:
        来自:
        帮助文档
        云监控服务
        用户指南
        主机监控
        物理机Agent管理
      • 刷新和预取是必须的吗
        本文介绍刷新和预取的差异及适用场景。 CDN刷新和预取是可选的操作,取决于客户的需求,可以根据自身需求和网站的特点来决定是否需要进行刷新和预取操作。 1. 刷新是指在CDN上将旧的缓存文件删除或置为过期,当用户下一次访问时可回源获取最新文件并重新缓存。当同名文件更新不频繁,且配置了较长缓存过期时间情况下,需要对文件进行更新时,可采用刷新操作,以确保用户获取到最新内容。此外,刷新也适用于源站资源删除、缓存文件有误等场景。 注意 如果同名文件更新频繁,建议配置较短的缓存过期时间,使其自然过期,无需进行频繁的CDN主动刷新操作。 2. 预取是指在用户访问至CDN节点之前,提前触发CDN回源获取并缓存文件,以达到首个用户即能访问加速的效果,并避免新文件热度过高导致的回源量高问题。适用于用户访问热度较高,且可能会造成较大回源的新文件发布场景,例如热门APP应用更新包即将发布前,可提前触发CDN预取,以提升用户体验并控制回源并发量。
        来自:
      • 修改OMS数据库管理员密码
        本章主要介绍翼MapReduce的修改OMS数据库管理员密码功能。 操作场景 建议管理员定期修改OMS数据库管理员的密码,以提升系统运维安全性。 操作步骤 1.以root用户登录主管理节点。 说明 ommdba用户密码不支持在备管理节点修改,否则集群无法正常工作。只需在主管理节点执行修改操作,无需在备管理节点操作。 2.执行以下命令,切换用户。 su omm 3.执行以下命令,切换目录。 cd $OMSRUNPATH/tools 4.执行以下命令,修改ommdba用户密码。 moddbpasswd ommdba 5.输入ommdba的原密码后,再输入两次新密码。 密码复杂度要求: 密码字符长度为16~32位。 至少需要包含大写字母、小写字母、数字、特殊字符~!@$%^&()+[{}];", /?中的3种类型字符。 不可和用户名相同或用户名的倒序字符相同。 不可与前20个历史密码相同。 显示如下结果,说明修改成功: Congratulations, update [ommdba] password successfully.
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        帐户管理
        修改默认数据库用户密码
        修改OMS数据库管理员密码
      • 1
      • ...
      • 155
      • 156
      • 157
      • 158
      • 159
      • ...
      • 567
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      AI Store

      模型推理服务

      一站式智算服务平台

      智算一体机

      人脸检测

      推荐文档

      产品规格

      卸载

      创建只读实例

      创建消费组

      扩容磁盘

      文档下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号