云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      镜像服务_相关内容
      • 更改弹性网卡所属安全组
        本文主要介绍如何更改弹性网卡所属安全组。 操作场景 您可以在弹性网卡列表页更改所属安全组,也可以进入弹性网卡详情页更改所属安全组。 操作步骤 在弹性网卡列表页,更改所属安全组 1. 登录管理控制台。 2. 在页面左上角单击图标,打开服务列表,选择“网络 > 虚拟私有云”。进入虚拟私有云列表页面。 3. 在左侧导航栏选择“弹性网卡”。 4. 在弹性网卡列表页,单击操作列的“更多 > 更改安全组”。 5. 在“更改安全组”页面勾选需要关联的安全组,单击“确定”,完成更改。 在弹性网卡详情页,更改所属安全组 1. 登录管理控制台。 2. 在页面左上角单击图标,打开服务列表,选择“网络 > 虚拟私有云”。进入虚拟私有云列表页面。 3. 在左侧导航栏选择“弹性网卡”。 4. 单击待修更改安全组的弹性网卡名称,进入弹性网卡详情页。 5. 在“关联安全组”页签下,单击“更改安全组”。 6. 在“更改安全组”页面勾选需要关联的安全组,单击“确定”,完成更改。 更多操作 您可以在弹性网卡详情页“关联安全组”页签下单击“配置规则”,对安全组规则进行配置。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        弹性网卡和辅助弹性网卡
        弹性网卡
        更改弹性网卡所属安全组
      • 重启实例
        本节主要介绍重启实例。 操作场景 出于维护目的,您可能需要重启数据库实例。 使用须知 实例状态为“正常”、“异常”、“恢复检查中”,支持重启实例。 重启实例会导致服务中断,请谨慎操作。 重启实例后,该实例下所有节点将会被重启。 开启操作保护的用户,在进行敏感操作时,通过进行二次认证再次确认您的身份,进一步提高账号安全性,有效保护您安全使用云产品。 操作步骤 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“实例管理”页面,选择兼容类型为InfluxDB的指定实例,选择操作列“更多 > 重启实例”。 您也可以在“实例管理”页面,单击指定实例的名称,在页面右上角,单击“重启实例”。 4. 若您已开启操作保护,在“重启实例”弹出框,单击“去验证”,跳转至验证页面,单击“免费获取验证码”,正确输入验证码并单击“认证”,页面自动关闭。 5. 在弹出框中,单击“是”重启实例。 对于GeminiDB Influx集群实例,您可以根据业务需求,选择节点同时重启或者节点逐个重启。 图1 重启GeminiDB Influx实例 对于GeminiDB Influx单节点实例,直接点击是即可。 图2 重启GeminiDB Influx单节点实例
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        实例生命周期
        重启实例
      • 设置规则防护
        复制全局策略 点击【规则复制】【复制全局策略】,便可以选择您要调整的域名,点击复制后,将会把当前域名的【防护规则引擎】策略全量配置,包括防护模式、防护规则集、规则白名单、全局规则白名单等内容覆盖到目标域名中。 复制防护模式 点击【规则复制】【复制防护模式】,便可以选择您要调整的域名,点击复制后,将会把当前域名的【防护规则引擎】【防护模式】复制到目标域名中。 复制防护规则集 点击【规则复制】【复制防护规则集】,便可以选择您要调整的域名,点击复制后,将会把当前域名的【防护规则集】全量配置到目标域名中,包括每个规则ID的防护开关、处理动作。 复制规则ID/规则白名单 通过首列复选按钮,勾选您要操作的规则ID/规则白名单ID,并点击【规则复制】【复制规则ID】/【复制规则白名单ID】,便可以选择您要调整的域名。点击复制后,将会把规则ID/规则白名单ID全量配置到目标域名中。包括每个规则ID的防护开关、处理动作。 注意 可复制的域名条件为: 需要和当前域名使用同一个防护规则集 域名为【已启用】状态 相关文档 服务开通 添加服务域名
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        Web防护
        设置规则防护
      • 刷新预取概述
        本文概括介绍刷新预取功能的使用场景及功能简介。 概述 为了确保用户获取到的内容始终为最新的,天翼云边缘安全加速平台—安全与加速服务支持刷新和预取功能,在不同使用场景确保用户能以最短的耗时获得最新的内容。 功能简介 刷新预取模块主要包括内容刷新、内容预取、以及相关任务提交后的任务查看和跟进的功能。具体定义如下: 功能 说明 刷新 天翼云边缘安全加速平台—安全与加速服务支持URL刷新、目录刷新、正则刷新三种方式。不同刷新方式实现机制稍有不同,但最终都能确保用户访问时获得最新的内容。常用于客户对源站内容做更新后,需要节点上对该内容做同步更新。 预取 执行预取请求后,边缘节点自动触发向源站请求内容并缓存,完成预取之后,边缘节点缓存的是源站最新的内容。此时,如果客户端向节点请求内容,节点会响应缓存的内容给用户。常用于热门文件发布或是大型推广活动前做内容预取,可以降低热点文件发布后源站的回源压力,提升缓存命中率,优化首批用户的访问体验。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        加速管理
        刷新预取
        刷新预取概述
      • 标签路由
        本章节介绍Spring Cloud应用的标签路由功能 概述 标签路由通过标签将一个或多个服务的提供者划分到同一个分组,从而约束流量只在指定分组中流转,实现流量隔离的目的。标签路由可以作为多版本开发测试、同应用的多版本流量隔离以及A/B Testing等场景的能力基础。 查看标签路由列表 在左侧导航栏, Spring Cloud治理 > 标签路由。查看当前账号下的标签路由。标签路由展示了发布应用的标签记录,如果服务较多,可以通过环境、应用名进行筛选或搜索,应用名大小写不敏感。 添加流量规则 在标签路由页面选择一个标签路由,然后单击添加流量规则。 1. 路由名称:标签路由规则名称,例如lableA。 2. 是否链路传递:如果需要使用全链路流控,请打开是否链路传递开关。 3. 框架类型:被调用的应用所使用的框架,选择Spring Cloud。 4. Path:HTTP的相对路径。 5. 条件模式:包含同时满足下列条件和满足下列任一条件,根据实际需求选择。 6. 条件列表:可以分别设置Parameter、Cookie、Header和Body Content四种类型的参数。例如:Parameter:namectyun Cookie:userId 1 或 2。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        微服务治理
        Spring Cloud治理
        标签路由
      • 使用免费证书
        本文介绍如何申请免费证书部署至全站加速平台。 功能介绍 如果您的网站没有购买HTTPS证书,可以通过全站加速平台提供的免费证书来支持HTTPS访问。 注意事项 已经订购全站加速服务,若未订购,请参见开通全站加速服务。 在控制台新增域名,请参见添加加速域名。您需要将域名完整CNAME到天翼云(不能部分CNAME到天翼云),并且等待CNAME状态生效,才能为该域名申请免费证书。 免费证书由Let's Encrypt机构颁发。 目前只支持申请单域名证书,并且是精确域名;不支持泛域名、多域名证书。 证书有效期为3个月,到期后将为您申请续期,无需手动更新。 免费证书不支持下载。 配置说明 该功能目前暂不支持控制台自助申请,如有需求,请提交工单给天翼云客服,由其人工操作开启。 提交工单时,请说明如下信息: 参数 说明 示例 域名 提供需要申请免费证书的域名。目前只支持申请单域名证书,并且是精确域名;不支持泛域名、多域名证书。 example.ctyun.cn 域名是否配置了网关本地响应文件 是/否。 域名是否配置了特定请求特定状态码 是/否。
        来自:
        帮助文档
        全站加速
        用户指南
        证书管理
        使用免费证书
      • 单个文件系统挂载至弹性云主机
        本文介绍文件系统挂载至云主机的方法。 当创建文件系统后,您需要使用云主机来挂载文件系统,以实现多个云主机共享使用文件系统的目的。本文介绍几种基本的挂载操作。 注意 云主机需要与文件系统归属同一VPC。 NFS仅支持挂载至Linux云主机;CIFS仅支持挂载至Windows云主机。 挂载前需确定云主机操作系统类型,不同操作系统挂载文件系统的方法不同。 文件存储的服务端口为:111、139、2049、20048、445、11002、11003、10141,设置安全组时不要禁止,以防无法访问文件服务。 挂载NFS文件系统到弹性云主机 (Linux) 详细操作步骤参见挂载NFS文件系统到弹性云主机 (Linux)。 挂载CIFS文件系统到弹性云主机 (Windows) 详细操作步骤参见挂载CIFS文件系统到弹性云主机 (Windows)。
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        挂载访问
        使用弹性云主机挂载文件系统
        单个文件系统挂载至弹性云主机
      • (停止维护)CCE发布Kubernetes 1.9及之前版本说明
        Kubernetes版本(CCE增强版) 版本说明 v1.9.10r2 主要特性: ELB负载均衡支持源IP跟后端服务会话保持 v1.9.10r1 主要特性: 支持对接SFS存储 支持Service自动创建二代ELB 支持公网二代ELB透传源IP 支持设置节点最大实例数maxPods v1.9.10r0 主要特性: kubernetes对接ELB/Ingress,新增流控机制 Kubernetes同步社区1.9.10版本 支持Kubernetes RBAC能力授权 问题修复: 修复操作系统cgroup内核BUG导致概率出现的节点内存泄漏问题 v1.9.7r1 主要特性: 增强PVC和PV事件的上报机制,PVC详情页支持查看事件 支持对接第三方认证系统l 集群支持纳管EulerOS2.3的物理机 数据盘支持用户自定义分配比例 物理机场景支持对接EVS云硬盘存储 物理机场景下支持IB网卡 物理机场景支持通过CMv3接口创建节点 v1.9.7r0 主要特性: 新建集群的Docker版本升级到1706 支持DNS级联 支持插件化管理 Kubernetes同步社区1.9.7版本 支持7层ingress的https功能 有状态工作负载支持迁移调度更新升级 v1.9.2r3 主要特性: 集群支持创建/纳管CentOS7.4操作系统的节点 kubernetes的Service支持对接DNAT网关服务 NetworkPolicy能力开放 增强型ELB支持Service配置多个端口 问题修复: 修复kubernetes资源回收过程中连不上kubeapiserver导致pod残留的问题 修复节点弹性扩容数据不准确的问题 v1.9.2r2 主要特性: 经典型ELB支持自定义健康检查端口 经典型ELB性能优化 ELB四层负载均衡支持修改Service的端口 问题修复: 修复网络插件防止健康检查概率死锁问题 修复高可用集群haproxy连接数限制问题 v1.9.2r1 主要特性: Kubernetes同步社区1.9.2版本 集群节点支持CentOS 7.1操作系统 支持GPU节点,支持GPU资源限制 支持webterminal插件 v1.7.3r13 主要特性: 新建集群的Docker版本升级到1706 支持DNS级联 支持插件化管理 增强PVC和PV事件的上报机制 物理机场景支持对接OBS对象存储 v1.7.3r12 主要特性: 集群支持创建/纳管CentOS7.4操作系统的节点 kubernetes的Service支持对接DNAT网关服务 NetworkPolicy能力开放 增强型ELB支持Service配置多个端口 问题修复: 修复kubernetes资源回收过程中连不上kubeapiserver导致pod残留的问题 修复节点弹性扩容数据不准确的问题 事件老化周期提示修正:集群老化周期为1小时 v1.7.3r11 主要特性: 经典型ELB支持自定义健康检查端口 经典型ELB性能优化 ELB四层负载均衡支持修改Service的端口 支持删除命名空间 支持EVS云硬盘存储解绑 支持配置迁移策略 问题修复: 修复网络插件防止健康检查概率死锁问题 修复高可用集群haproxy连接数限制问题 v1.7.3r10 主要特性: 容器网络支持Overlay L2模式 集群节点支持GPU类型虚机 集群节点支持CentOS 7.1操作系统,支持操作系统选择 Windows集群支持对接二代ELBl 支持弹性文件服务SFS导入 物理机场景支持对接SFS文件存储、OBS对象存储 v1.7.3r9 主要特性: 工作负载支持跨AZ部署 容器存储支持OBS对象存储服务 支持ELB L7负载均衡 Windows集群支持EVS存储 物理机场景支持devicemapper directlvm模式 v1.7.3r8 主要特性: 集群支持节点弹性扩容 v1.7.3r7 主要特性: 容器隧道网络集群支持纳管SUSE 12sp2节点 docker支持directlvm模式挂载devicemapper 集群支持安装dashboard 支持创建Windows集群 v1.7.3r6 主要特性: 集群存储对接原生EVS接口 v1.7.3r5 主要特性: 支持创建HA高可靠集群 问题修复: 节点重启后容器网络不通 v1.7.3r4 主要特性: 集群性能优化 物理机场景支持对接ELB v1.7.3r3 主要特性: 容器存储支持KVM虚拟机挂载 v1.7.3r2 主要特性: 容器存储支持SFS文件存储 工作负载支持自定义应用日志 开放工作负载优雅缩容 问题修复: 修复容器存储AK/SK会过期的问题 v1.7.3r1 主要特性: kubedns支持外部域名解析 v1.7.3r0 主要特性: Kubernetes同步社区1.7.3版本 支持ELB负载均衡 容器存储支持XEN虚拟机挂载 容器存储支持EVS云硬盘存储
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.9及之前版本说明
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 配置监控面板
        本节主要介绍配置监控面板。 监控面板为您提供自定义查看监控数据的功能,将您关注的监控指标集中呈现在一张监控面板里,为您定制一个立体化的监控平台。 页面主要介绍如何为GeminiDB Redis配置监控面板的方法。 操作步骤 1、登录管理控制台。 2、在服务列表中,单击“云监控服务CES”,进入云监控服务页面。 3、 创建监控面板。 1. 在“总览 > 监控面板”区域右侧,单击“创建监控面板”。 2. 在“创建监控面板”弹出框中配置参数。 表参数说明 参数名称 说明 名称 表示监控面板名称,该参数只能由中文、英文字母、数字、下划线、中划线组成,且长度不超过128。 企业项目 将监控面板关联给到某个企业项目时,只有拥有该企业项目权限的用户才可以查看和管理该监控面板。 说明 企业项目仅在部分区域上线。 3. 单击“确定”,完成创建监控面板。 4、为监控面板添加监控视图。 在完成监控面板的创建后,您就可以添加监控视图对GeminiDB Redis实例进行监控。 1. 选择“总览 > 监控面板”,切换到需要添加监控视图的监控面板,然后单击“添加监控视图”。 2. 在“添加监控视图”界面,参照表完成参数配置。 表参数说明 参数名称 说明 标题 自定义关注指标组件的标题名称,该名称只能由中文、英文字母、数字、下划线、中划线组成,长度限制为128字节。例如:CPU利用率 企业项目 监控视图关联的企业项目,只有有企业项目的权限,才有权查看此监控视图的监控数据。 资源类型 所关注指标对应的服务名称。此处请选择“云数据库GeminiDB”。 维度 所关注指标的维度名称。此处请选择“RedisRedis节点”。 监控对象 所关注指标对应的监控对象。此处建议勾选需要监控的GeminiDB Redis实例下的所有节点。 监控指标 所关注指标的名称。此处推荐设置如下常用监控指标: 磁盘利用率(整个实例级) 用于监控GeminiDB Redis实例容量使用情况。如果磁盘利用率>80%时,建议及时进行扩容磁盘。 CPU、内存利用率(节点级) 用于监控GeminiDB Redis实例各节点计算资源的使用情况。如果CPU利用率或者内存利用率>80%时,建议及时添加节点或变更实例的CPU和内存规格。 proxy执行所有命令的速率(节点级) 用于监控GeminiDB Redis实例各节点执行命令的QPS。 proxy执行所有命令的平均、p99时延(节点级) 用于监控GeminiDB Redis实例各节点执行命令的平均时延、p99时延。更多监控指标信息请参见 GeminiDB Redis支持的监控指标。 注意 添加监控视图时,建议每次仅添加一个监控指标,这样每个监控指标就可以独立生成一个监控视图,方便您观察和分析监控数据。如果您需要添加多个监控指标,可通过多次添加监控视图来添加对应监控指标。 3. 单击“下一步:配置图例名称”。 图例名称是显示在监控视图指标变化曲线上的名称,您可以自定义图例名称。 您可以选择不配置图例名称,那么系统默认展示:监控对象(资源类型) 监控指标: 数据。 4. 单击“确定”,完成监控视图的添加。 在所选的监控面板上可以查看新添加监控视图的监控走势图,单击,可放大查看详细的指标对比数据。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        监控与告警
        配置监控面板
      • 导入API
        导入到已有分组注意事项 将API定义导入到一个已有的分组,导入过程中不会删除分组中已有的API,只是将新增的API导入分组。 适用于将一个新的API或者一个修改后的API导入到已有的分组。 导入API前,请注意以下事项: API网关中API的配额满足需求。 导入的API定义与已有的API定义冲突时,您可以选择使用导入的API定义覆盖已有的API定义,或者保留已有的API定义,此时导入的API定义会显示导入失败。 如果选择扩展覆盖,当导入API的扩展定义项名称与已有策略(ACL,流量控制等)名称相同时,则会覆盖已有策略(ACL,流量控制等)。 导入的API不会自动发布到环境,导入时可以选择“立即发布”或者“稍后发布”,您可以自行选择策略。 操作步骤 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API列表”。 步骤 4 单击导入API。 您也可以参考以下示例导入API到API网关: 导入HTTP类型后端服务API示例 导入HTTP VPC类型后端服务API示例 导入MOCK类型后端服务API示例 导入HTTP类型后端服务API示例 包含IAM认证和请求参数编排的GET方法API定义,后端服务类型为HTTP。 Swagger示例: swagger: "2.0" info: title: "importHttpEndpoint10" description: "import apis" version: "1.0" host: "api.account.com" paths: '/http/{userId}': get: operationId: "getUser3" description: "get user by userId" security: apigauthiam: [] schemes: https parameters: name: "test" description: "authorization token" type: "string" in: "header" required: true name: "userId" description: "user id" type: "string" in: "path" required: true responses: "200": description: "user information" xapigatewayrequesttype: "public" xapigatewaycors: true xapigatewaymatchmode: "NORMAL" xapigatewaybackend: type: "HTTP" parameters: name: "userId" value: "userId" in: "query" origin: "REQUEST" description: "user id" name: "XInvokeUser" value: "apigateway" in: "header" origin: "CONSTANT" description: "invoke user" httpEndpoints: address: "example.com" scheme: "http" method: "GET" path: "/users" timeout: 30000 securityDefinitions: apigauthapp: in: header name: Authorization type: apiKey xapigatewayauthtype: AppSigv1 apigauthiam: in: header name: unused type: apiKey xapigatewayauthtype: IAM OpenAPI示例: openapi: 3.0.0 info: title: importHttpEndpoint10 version: '1.0' servers: url: > url: > paths: '/http/{userId}': get: description: get user by userId operationId: getUser3 parameters: description: authorization token example: '' in: header name: test required: true schema: maxLength: 0 maximum: 0 minimum: 0 type: string xapigatewaypassthrough: always description: user id example: '' in: path name: userId required: true schema: maxLength: 0 maximum: 0 minimum: 0 type: string xapigatewaypassthrough: always responses: defaultcors: description: response example xapigatewayresultfailuresample: '' xapigatewayresultnormalsample: '' security: apigauthiam: [] servers: url: > xapigatewaybackend: httpEndpoints: address: example.com description: '' enableClientSsl: false method: GET path: /users retryCount: '1' scheme: http timeout: 30000 parameters: description: invoke user in: HEADER name: XInvokeUser origin: CONSTANT value: apigateway description: user id in: QUERY name: userId origin: REQUEST value: userId type: HTTP xapigatewaycors: true xapigatewaymatchmode: NORMAL xapigatewayrequesttype: public xapigatewayresponse: default components: responses: defaultcors: description: response example headers: AccessControlAllowOrigin: schema: default: '' type: string securitySchemes: apigauthapp: in: header name: Authorization type: apiKey xapigatewayauthtype: AppSigv1 apigauthappheader: in: header name: Authorization type: apiKey xapigatewayauthopt: appcodeauthtype: header xapigatewayauthtype: AppSigv1 apigauthiam: in: header name: unused type: apiKey xapigatewayauthtype: IAM xapigatewayresponses: default: {}
        来自:
        帮助文档
        API网关
        开放API网关
        API管理
        导入API
      • 包周期计费模式-Tokens量包
        模型推理服务支持按需计费模式Tokens、包周期计费模式Tokens量包、包周期计费模式TPM包、按需计费模式卡时、包周期计费模式卡时五种计费模式。本节为您详细介绍包周期计费模式Tokens量包。 Tokens量包概念 Tokens量包是将Tokens按照固定额度打包售卖,当您购买并启用Tokens用量包后,系统将优先从量包中扣除模型推理所消耗的Token数量。该资源包具备一定有效期,可在约定时间内用于抵扣相应模型的Tokens消耗。 说明 Tokens量包额度同时包含模型推理时输入和输出所产生的Tokens。 产品价格 模型名称 量包额度(Tokens) 有效期 标准价(元) DeepSeekV3 1000万 1个月 35 DeepSeekV3 5000万 3个月 175 DeepSeekV3 1亿 6个月 350 DeepSeekV3 5亿 12个月 1750 DeepSeekV3 10亿 12个月 3500 DeepSeekR1 1000万 1个月 70 DeepSeekR1 5000万 3个月 350 DeepSeekR1 1亿 6个月 700 DeepSeekR1 5亿 12个月 3500 DeepSeekR1 10亿 12个月 7000 激活步骤 注意 Tokens量包需手动激活后方可正常使用,激活后即刻开始计算有效期。 1. 进入在线推理模块,点击目标模型名称,跳转至模型服务详情页,在操作列点击“激活”按钮。 2. 激活成功后状态变为“使用中”,且开始计算有效期。未开始使用(用量和有效期均未开始)的量包支持“取消激活”。
        来自:
        帮助文档
        模型推理服务
        计费说明
        包周期计费模式-Tokens量包
      • 半托管迁移模式简介
        本文为您介绍半托管迁移模式的使用场景和流程。 什么是半托管模式 对象存储迁移服务(ZMS,全称ZOS Migration Service)支持用户在本地设备上部署代理软件(zmsagent) ,来执行迁移任务。半托管模式具有如下特点和优势: 靠近源端部署 :可部署在靠近源端的环境中,代理程序通过从源端内网下载数据,通过公网传输至ZOS目的端,减少源端对象存储数据流出费用。 可选分布式部署 :采用主从架构,可部署多设备,提供分布式迁移能力。 多任务并行迁移 :支持多个迁移任务同时执行。 控制台管控 :支持通过天翼云官网迁移服务控制台对迁移任务进行控制。 功能丰富 :兼容全托管模式迁移的所有功能,包括断点续传。 半托管模式的使用场景 靠近源端迁移 :通过将代理软件和机器部署在源端内网中,实现从源端内网下载对象,节省对象流出费用。 迁移资源独享 :相较于全托管模式的资源共享,半托管模式可高效利用部署代理的设备的网络与计算资源,实现资源独享,帮助用户快速进行对象存储数据迁移。 半托管模式的使用流程 使用半托管模式进行迁移需要您在对象存储迁移控制台和您的部署设备上分别进行操作,您可按照如下流程进行操作: 1. 创建代理:在控制台上创建代理。 2. 部署代理:在您的设备上部署代理。 3. 管理代理:在控制台上管理已部署的代理。 4. 创建半托管模式的迁移任务:在控制台上进行半托管模式迁移任务的创建与管理。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        如何使用半托管模式进行迁移
        半托管迁移模式简介
      • 分布式容器云平台CCEONE
        云日志服务支持对分布式容器云平台CCEONE提供日志采集和分析能力,包括容器日志、事件日志、控制面组件日志,辅助定位集群中出现的异常问题。接入操作需要在CCEONE控制台中进行,操作说明请见下文。 日志维度 说明 容器日志 采集集群中容器应用的标准输出日志。 事件日志 配合cubeevent插件,采集集群中的event信息,并持久化到日志中。 控制面组件日志 采集控制面组件的日志,包括kubeapiserver、kubecontrollermanager、kubescheduler和etcd。 前提条件 1. 已完成集群注册,具体操作请参见 本地注册集群 / 三方云注册集群。 2. 集群已安装ctglogoperator、cubeevent插件,具体操作请参考 插件。 操作步骤 开启日志采集 1. 登陆分布式容器云平台控制台,在左侧导航栏中选择集群资源 > 集群管理,进入注册集群列表页。 2. 在注册集群列表中点击需要配置日志采集的集群,进入单集群管理页面。 3. 在单集群管理页面导航栏中选择运维管理 > 日志中心,进入日志中心页面。 4. 在日志中心页面顶部,可切换容器日志、事件日志、控制面组件日志页签,点击下方“立即开启”按钮,配置容器日志、事件日志和控制面组件日志接入。 配置完成后,在对应页签下即可查看、搜索应用日志。同时您也可以登录云日志服务控制台中进行相应的日志查询与分析。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        分布式容器云平台CCEONE
      • 编辑用户
        本章节介绍了如何编辑分布式消息服务RocketMQ实例的用户。 操作场景 用户创建成功后,您可以根据业务需要修改以下用户信息:IP白名单、管理员、默认Topic权限、默认消费组权限和密钥。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“用户管理”,进入“用户管理”页面。 4. 在待修改的用户所在行,单击“编辑”,弹出“编辑用户”对话框。 5. 根据业务需要,修改如表1所示信息。 表1 用户参数说明 参数 说明 IP白名单 如果请求的来源IP为IP白名单中的地址,不需要校验用户密钥是否正确,且具有所有Topic和消费组的发布+订阅权限。IP白名单可以配置为具体的IP地址,也可以配置为网段。如:192.168.1.2,192.168.2.3或者192. . . 管理员 开启管理员时,具有所有Topic和消费组的发布+订阅权限。 默认Topic权限 默认的Topic权限。 如果为指定Topic设置特殊权限,特殊权限会覆盖默认权限,此Topic的实际权限为特殊权限。例如:默认权限为订阅,指定Topic的特殊权限为发布+订阅,则此Topic实际权限为发布+订阅。 默认消费组权限 默认的消费组权限。 如果为指定消费组设置特殊权限,特殊权限会覆盖默认权限,此消费组的实际权限为特殊权限。例如:默认权限为订阅,指定消费组的权限为发布+订阅,则此消费组实际权限为发布+订阅。 密钥 设置用户的密钥。 6. 单击“确定”,完成用户的修改。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        用户管理
        编辑用户
      • 副本集实例
        本页介绍了文档数据库服务副本集的产品资费。 说明 天翼云文档数据库服务DDS对Ⅰ类型资源池和Ⅱ类型资源池的价格有所区分。 部分Ⅰ类型资源池已加载国产化处理器,相关价格见下方说明。 具体资源池类型请见 三节点副本集价格 三节点副本集等同于一主两从实例类型。 实例类型 CPU(核) 内存(G) 标准资费(元/月) 按需标准资费(元/小时) : 三节点副本集 1 4 380 0.79 三节点副本集 2 4 550 1.146 三节点副本集 2 8 760 1.583 三节点副本集 2 16 900 1.88 三节点副本集 4 8 1100 2.292 三节点副本集 4 16 2050 4.27 三节点副本集 4 32 2100 4.38 三节点副本集 8 16 2200 4.583 三节点副本集 8 32 4100 8.54 三节点副本集 8 64 6300 13.13 三节点副本集 16 32 7040 14.67 三节点副本集 16 64 8200 17.08 三节点副本集 16 128 12600 26.25 三节点副本集 32 64 14080 29.33 三节点副本集 32 128 19680 40.992 三节点副本集 32 256 25200 52.5 三节点副本集 64 128 28160 58.67 三节点副本集 64 256 39360 81.984 三节点副本集 64 512 50400 105 三节点副本集实例类型包年预付费可享受一年85折、两年7折、三年5折的优惠政策。
        来自:
        帮助文档
        文档数据库服务
        计费说明
        产品资费
        副本集实例
      • Cluster主备
        本文介绍分布式缓存服务Redis Cluster主备 分布式缓存Redis Cluster集群实例,为直连集群版,兼容开源Redis的Cluster,基于去中心化集群部署架构,Cluster中每一个节点存储一部分数据。 Redis Cluster集群实例的特点如下: 支持智能客户端JedisCluster的使用方式。 对比主备规格,整体性能与Redis分片数近乎线性增长。 架构示意图 Cluster集群的去中心化架构中,数据存储和处理负载不再由单一中心节点来管理,而是由多个节点共同参与。这种架构设计旨在提高系统的可伸缩性、可用性和容错性。 数据分布在多个节点上,从而实现更好的性能和可靠性。 数据分片 在Cluster集群中,数据分片是指将整个数据集划分为多个片段,并分别存储在不同的节点上。这种分片机制带来了一系列好处,包括横向扩展性、负载均衡和提高系统性能。Cluster会预先分配16384个slot,每个Redis的server存储所有slot与redis server的映射关系。 特点 数据同步 通过增量数据同步的方式,保持缓存实例主备节点的数据一致性。 主备秒级自动切换 当主节点出现故障不可用,系统会自动在30秒内切换至备节点,备节点升级为主节点,接管业务数据访问。 多可用区部署 开通实例时支持多可用区部署,主备节点可部署在不同的AZ内,节点间电力与网络均物理隔离,当一个可用区不可用时,其他可用区中的节点可以继续提供服务,避免单点故障,进一步提高数据可靠性。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        实例类型
        Cluster主备
      • 过期KEY扫描
        本文介绍Redis过期key扫描 在开源Redis中支持两种过期key删除机制: 惰性删除:在对key读写命令执行之前进行检查,如果过期,则删除该键;未过期则不做操作,继续执行原有的命令。 定期删除:由Redis的定时任务实现,该任务每次运行时从键空间中随机取出一定数量的Key进行检查,并删除其中的过期键。 分布式缓存服务提供了过期key扫描能力, 过期key扫描会对键空间进行Redis的scan扫描,释放内存中已过期但是由于惰性删除机制而没有释放的内存空间。 说明 过期key扫描支持手动触发和定时触发。 过期key扫描在主节点上执行,会对实例性能有一定的影响。 过期key扫描会消耗CPU,建议在业务低峰时段执行。 前提条件 已成功开通分布式缓存服务Redis实例,且实例处于运行中状态。 操作步骤 1.登录 Redis管理控制台。 2.在管理控制台左上角选择实例所在的区域。 3.在实例列表页,单击目标实例名称进入实例详情页面。 4.点击左侧菜单CloudDBA>过期KEY扫描,进入过期KEY扫描界面。 5.可选择立即扫描或自动扫描。 立即扫描:单击“立即扫描”,可进行过期key扫描,扫描完成后会在页面展示扫描记录。 自动扫描,勾选“自动扫描”,在自动扫描设置页面设置首次扫描时间、扫描间隔、扫描超时、迭代扫描key数量后,点击保存即可触发自动扫描任务。 6.当过期key扫描任务提交后,可在任务列表查看提交的任务。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例诊断分析
        过期KEY扫描
      • 冷热数据存储
        本章节主要介绍云搜索服务如何操作冷热数据存储。 云搜索服务提供了冷数据节点供企业选择,企业可以将部分现查要求秒级返回的数据放在高性能机器上面,对于历史数据要求分钟级别返回的数据放在大容量低规格节点。 说明 创建集群时,数据节点为必选,只有当选择了冷数据节点后,数据节点才会变成热节点。 选择冷数据节点的同时,支持独立选择Master和Client节点。 冷数据节点支持节点和磁盘扩容,前提是冷节点规格支持(本地盘不支持磁盘扩容)。 冷热数据切换 选择冷数据节点后,冷数据节点将会打上“cold”标签,用来表示冷节点。同时,数据节点将会上升为热节点,会被打上“hot”标签。用户可以通过配置指定索引,将数据分配到冷热节点。 通过设置template,可以通过模板将相应的index存储到指定冷热节点。 如下,登录集群的Kibana Console页面,配置myindex开头的索引,储存在冷节点上面。 这样可以通过模板在创建的时候把myindex的数据存储在冷数据节点上面。 PUT template/test { "order": 1, "template": "myindex", "settings": { "index": { "refreshinterval": "30s", "numberofshards": "3", "numberofreplicas": "1", "routing.allocation.require.boxtype": "cold" } } } 同时也可以单独对已经创建好的索引进行操作。 PUT myindex/settings { "index.routing.allocation.require.boxtype": "cold" } 也可以去掉冷热数据配置,不受冷热数据标签影响。 PUT myindex/settings { "index.routing.allocation.require.boxtype": null }
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        管理Elasticsearch类型集群
        冷热数据存储
      • 备份原理及方案
        本节主要介绍备份原理及方案 DDS实例支持自动备份和手动备份,您可以定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份文件恢复数据库,从而保证数据可靠性。 备份原理 集群实例 集群实例由Mongos(路由)、Config(配置)和Shard(分片)组件构成。其中,Config主要用于存储集群实例的配置信息,Shard节点主要用于存储集群实例的数据信息。所以集群实例在备份时,需要分别备份Config节点和Shard节点上的数据,且Config节点和Shard节点是分开进行备份的。如下图所示,集群实例的备份是由Config节点和Shard节点分别在各自的Hidden节点上进行,备份过程会占用Hidden节点一定的CPU内存资源。因此,在备份期间,实例的Hidden节点的CPU使用率、内存使用率、主备延时指标会有一点升高,属于正常现象。但最终的备份文件将以压缩包的形式存储在对象存储服务(OBS)中,不会占用实例的磁盘空间。 集群备份原理图 副本集实例 如下图所示,副本集实例的备份在Hidden节点上进行。备份过程会占用Hidden节点一定的CPU内存资源。因此,在备份期间,实例的Hidden节点的CPU使用率、内存使用率、主备延时指标会有一点升高,属于正常现象。但最终的备份文件将以压缩包的形式存储在对象存储服务(OBS)中,不会占用实例的磁盘空间。 副本集备份原理图
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据备份
        备份原理及方案
      • 修改后端主机端口和权重
        参数 说明 端口 后端云主机的服务监听端口,取值范围[165535]。 权重 后端虚拟机权重。权重值决定了后端云主机处理的请求的比例。例如,一个权重为2的云主机处理的请求数是权重为1的两倍。默认情况下,权重为1。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        后端主机
        修改后端主机端口和权重
      • 修改后端主机端口和权重
        参数 说明 端口 后端云主机的服务监听端口,取值范围[165535]。 权重 后端虚拟机权重。权重值决定了后端云主机处理的请求的比例。例如,一个权重为2的云主机处理的请求数是权重为1的两倍。默认情况下,权重为1。
        来自:
      • 示例二:拦截某一地区的访问流量
        本文提供拦截某一地区的访问流量的配置示例。 更多参数配置请参见“通过添加防护规则拦截/放行流量”。 拦截某一地区的访问流量 假如您需要拦截所有来源“北京”地区的访问流量,可以参照以下参数设置防护规则。 方向:外内 源:选择“地域”、“北京” 目的:Any 服务:Any 动作:阻断
        来自:
        帮助文档
        云防火墙
        用户指南
        配置访问控制策略
        通过配置防护规则拦截/放行流量
        示例二:拦截某一地区的访问流量
      • 创建只读实例
        参数 描述 购买时长 选择所需的时长,可选择包周期或者按需计费,系统会自动计算对应的配置费用,包周期时间越长,折扣越大。 购买数量 关系数据库MySQL版服务支持批量创建只读实例,只读总数上限为5个。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        只读实例
        创建只读实例
      • 购买类
        本页为您介绍WPS云文档天翼云版产品的常见问题 产品如何购买? 在天翼云甄选商城搜索 "WPS" 找到 "WPS云文档天翼云版" 直接下单购买。 如何退定? 该产品目前为SaaS服务虚拟商品,非产品问题,不支持退订。 如何续费? 可在甄选商城申请续费操作。
        来自:
        帮助文档
        WPS云文档天翼云版
        常见问题
        购买类
      • 全站加速和CDN加速资源包支持互相抵扣吗
        本文解释全站加速和CDN加速资源包的扣费机制。 当前CDN加速的资源包和全站加速的资源包不支持互相抵扣。例如:CDN加速的流量包不可用于抵扣全站加速在服务过程中产生的下行流量,各自的加速业务均需单独购买资源包,并各自抵扣。
        来自:
        帮助文档
        CDN加速
        常见问题
        订购计费
        全站加速和CDN加速资源包支持互相抵扣吗
      • 集群信息
        本文向您介绍裸金属集群详情信息,帮助您了解裸金属集群的基本情况。 使用前提 已创建裸金属集群。 操作步骤 1. 登录公共算力服务控制台,单击左侧导航栏中的【集群>裸金属集群】,进入集群列表页。 2. 单击列表页中集群名称,进入集群详情页面。 3. 在裸金属集群详情页,可以查看基本信息、业务节点信息、集群控制面板实例信息,并进行相关操作。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        裸金属集群
        集群详情
        集群信息
      • 节点解绑
        本文向您介绍息壤智算集群节点解绑,帮助您了解息壤智算集群的基本情况。 使用前提 节点已绑定集群,状态为“绑定失败”、“已绑定异常”、“已绑定锁定”。 操作步骤 1. 登录公共算力服务控制台,单击左侧导航栏中的【息壤智算集群】,进入集群列表页。选择具体集群进入集群详情页。 2. 在具体节点行对应的操作,点击【解绑集群】。 3. 确认信息后点击【确定】。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        息壤智算集群
        集群详情
        节点解绑
      • 类型转换函数
        云日志服务支持单位转换函数。 函数列表 函数名称 语法 说明 cast cast(x, type) 用于转换x的数据类型。 cast函数 用于转换x的数据类型。 语法 cast(x, type) 参数说明 参数名称 说明 类型 是否必选 x 参数值可以为任意类型。 是 type SQL数据类型,可选值为bigint、varchar、double、boolean、datetime string 是 返回值类型 string 示例 类型 示例 统计分析语句 select cast('1', 'bigint') 返回结果
        来自:
        帮助文档
        云日志服务
        用户指南
        查询与分析
        SQL统计分析
        SQL函数
        类型转换函数
      • 重启实例
        前提条件 只有当实例状态为“运行中”时才可以进行重启操作。 注意:重启过程中,实例将会有短暂时间停止服务。 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在实例列表页的操作列,目标实例行点击“更多”按钮。 4. 在下拉框内点击“重启”按钮。 5. 点击弹框内的“确认”按钮完成操作,实例状态变为“重启中”。 6. 等待一段时间后,重启成功实例恢复运行状态,否则状态为“重启失败”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重启实例
      • 【通知】云原生引擎调整为白名单特性
        分布式消息服务RabbitMQ引擎类型云原生引擎调整为白名单特性,更多了解请查看快速入门购买实例引擎类型说明。 调整时间 2024年7月5日 影响范围 所有区域 调整影响 新用户默认不开放云原生引擎订购开通,如需要该特性,请联系技术支持开通后使用。 已购买云原生引擎实例的用户,原实例仍可正常使用,续费、扩容等操作不受影响。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        服务公告
        2024年
        【通知】云原生引擎调整为白名单特性
      • 删除认证用户
        本文为您介绍分布式消息服务MQTT的API认证授权删除认证用户。 POST ContentType:application/json 请求体json参数说明: 参数名 参数类型 是否必填 参数描述 prodInstId String 是 实例Id userName String 是 认证用户 返回参数说明: 参数名 参数类型 参数描述 message String 描述状态 statusCode String 800成功 其他失败 返回示例:成功 { "message": "success","statusCode": "800"} 返回示例:失败 {"returnObj": null,"message": "error","statusCode": "900"}
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        认证授权
        删除认证用户
      • 1
      • ...
      • 247
      • 248
      • 249
      • 250
      • 251
      • ...
      • 491
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      模型推理服务

      科研助手

      智算一体机

      人脸活体检测

      推荐文档

      云主机购买流程

      云安备信息查看

      Telnet/SSH/Rlogin访问

      配置目的端

      加入会议

      Client端Windows版本

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号