云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云翼小店_相关内容
      • 开通视频直播服务
        本文简述如何开通视频直播服务,包括账户实名认证、按需计费模式的开通步骤。 前提条件 已注册天翼云官网账号。如未注册,请参见:注册天翼云账号进行注册。 未实名认证的用户完成实名认证后才能开通视频直播服务。确认账号是否已实名认证,详情请参见:实名认证。 购买视频直播按需产品之前请确保您的账户余额大于100元。 计费模式 视频直播支持按需计费和资源包计费(预付费)两种方式,其中资源包仅支持流量包。 按需计费购买流程 您可以参考以下步骤开通按需计费模式的视频直播服务: 1. 进入视频直播详情页快速了解产品,并单击【立即开通】。 2. 在购买页面勾选需要开通的区域并选择合适的【计费方式】。直播转码/录制/截图/审核/高性能网络等增值服务默认不开启。如需使用增值服务,您可以单击对应增值服务按钮进行开启。 注意 视频直播服务一旦开通成功,有效期到期前无需且不支持重复开通。 暂不支持单独开通“全球(不含中国内地)”的视频直播加速业务。即您可以只开通“中国内地”加速区域,或同时开通“中国内地”和“全球(不含中国内地)”。 直播增值服务直播转码/录制/截图/审核仅支持中国内地开通使用,全球(不含中国内地)暂不支持。 高性能网络目前仅支持全球(不含中国内地)开通使用,中国内地暂不支持。 3. 视频直播业务开通后,页面会显示【提交成功】,单击【跳转到直播控制台】,即可进入直播控制台添加需要加速的域名,详情请参见:添加加速域名。
        来自:
        帮助文档
        视频直播
        订购说明
        开通视频直播服务
      • 存储过程与函数不能同名
        本页介绍天翼云TeleDB数据库创建一个与函数同名的存储过程的错误提示和替换方案。 如创建一个与函数同名的存储过程会提示function xxx already exists with same argument types。 plaintext teledb CREATE OR REPLACE FUNCTION proc1() RETURNS void AS $$ begin raise notice 'Hello teledbpg'; end; $$ LANGUAGE PLPGSQL; CREATE FUNCTION teledb CREATE PROCEDURE proc1() AS $$ begin raise notice 'Hello teledbpg'; end; $$ LANGUAGE PLPGSQL; ERROR: function "proc1" already exists with same argument types teledb 如果要替换,则提示。 plaintext teledb CREATE OR REPLACE PROCEDURE proc1() AS $$ begin raise notice 'Hello teledbpg'; end; $$ LANGUAGE PLPGSQL; ERROR: cannot change routine kind DETAIL: "proc1" is a function. teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        存储过程开发
        存储过程语法介绍
        存储过程与函数不能同名
      • 复制表
        本页介绍天翼云TeleDB数据库的复制表功能。 复制表是所有DN 节点都存储一份相同的数据。 plaintext teledb create table trep (id int,mc text) distribute by replication; CREATE TABLE teledb d+ trep Table "public.trep" Column Type Collation Nullable Default Storage Stats target Description +++++++ id integer plain mc text extended Distribute By: REPLICATION Location Nodes: ALL DATANODES 所有节点都会保存一份数据 plaintext teledb insert into trep values(1,'teledb'),(2,'ctyun'); COPY 2 teledb EXECUTE DIRECT ON (dn01) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows) teledb EXECUTE DIRECT ON (dn02) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        数据库基础开发
        DDL操作
        数据表管理
        复制表
      • 复制表
        本页介绍天翼云TeleDB数据库的复制表功能。 复制表是所有DN 节点都存储一份相同的数据。 plaintext teledb create table trep (id int,mc text) distribute by replication; CREATE TABLE teledb d+ trep Table "public.trep" Column Type Collation Nullable Default Storage Stats target Description +++++++ id integer plain mc text extended Distribute By: REPLICATION Location Nodes: ALL DATANODES 所有节点都会保存一份数据 plaintext teledb insert into trep values(1,'teledb'),(2,'ctyun'); COPY 2 teledb EXECUTE DIRECT ON (dn01) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows) teledb EXECUTE DIRECT ON (dn02) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        开发手册
        数据库基础开发
        DDL操作
        数据表管理
        复制表
      • 修改单个节点上参数
        本页介绍天翼云TeleDB数据库如何修改单个节点上参数。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击参数管理。 2. 在数据库参数 页签,在下拉框选择对应的节点、IP和端口、在搜索框中输入配置项搜索 需修改的参数,单击查询, 查找要修改的目标节点。 3. 在查找出的参数行,单击编辑 按钮,出现编辑配置项 对话框。 4. 将修改值根据自己的需求设置为需调整后的参数,单击确定, 出现提示 对话框。 5. 您可单击立即前往 查看任务详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        管理平台使用手册
        参数管理
        修改单个节点上参数
      • 复制表
        本页介绍天翼云TeleDB数据库的复制表功能。 复制表是所有DN 节点都存储一份相同的数据。 plaintext teledb create table trep (id int,mc text) distribute by replication; CREATE TABLE teledb d+ trep Table "public.trep" Column Type Collation Nullable Default Storage Stats target Description +++++++ id integer plain mc text extended Distribute By: REPLICATION Location Nodes: ALL DATANODES 所有节点都会保存一份数据 plaintext teledb insert into trep values(1,'teledb'),(2,'ctyun'); COPY 2 teledb EXECUTE DIRECT ON (dn01) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows) teledb EXECUTE DIRECT ON (dn02) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        开发手册
        数据库基础开发
        DML操作
        数据表管理
        复制表
      • 复制表
        本页介绍天翼云TeleDB数据库的复制表功能。 复制表是所有DN 节点都存储一份相同的数据。 plaintext teledb create table trep (id int,mc text) distribute by replication; CREATE TABLE teledb d+ trep Table "public.trep" Column Type Collation Nullable Default Storage Stats target Description +++++++ id integer plain mc text extended Distribute By: REPLICATION Location Nodes: ALL DATANODES 所有节点都会保存一份数据 plaintext teledb insert into trep values(1,'teledb'),(2,'ctyun'); COPY 2 teledb EXECUTE DIRECT ON (dn01) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows) teledb EXECUTE DIRECT ON (dn02) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        开发手册
        数据库基础开发
        DDL操作
        数据表管理
        复制表
      • Jedis
        本章介绍使用同一VPC内弹性云主机ECS上的Jedis连接Redis实例的方法。 介绍使用同一VPC内弹性云主机ECS上的Jedis连接Redis实例的方法。更多的客户端的使用方法请参考Redis客户端。 在springboot类型的项目中,springdataredis中已提供了对jedis、lettuce的集成适配。另外,在springboot1.x中默认集成的是jedis,springboot2.x中改为了lettuce,因此在springboot2.x及更高版本中想集成使用jedis,需要对已集成的lettuce组件依赖进行排包 前提条件 已成功申请Redis实例,且状态为“运行中”。 查看并获取待连接Redis实例的IP地址和端口。 具体步骤请参见查看实例信息。 已创建弹性云主机,创建弹性云主机的方法,请参见《弹性云主机用户指南》。 如果弹性云主机为Linux系统,该弹性云主机必须已经安装java编译环境。 Pom配置 org.springframework.boot springbootstarterdataredis io.lettuce lettucecore redis.clients jedis 3.6.0
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        多语言连接
        Java客户端
        Jedis
      • 查看监控指标
        本章节主要介绍云搜索服务如何查看监控指标。 提供的云监控服务可以对云搜索服务集群的核心指标进行日常监控。您可以通过云监控服务管理控制台直观地查看集群的监控指标数据。 云监控服务只支持实时监控已创建成功的集群。 前提条件 集群状态为“可用”或“处理中”。 说明 “异常”、“创建中”状态的集群或者已删除的集群,无法在云监控服务管理控制台中查看其监控指标。当集群状态由“异常”或“创建中”变为“可用”时,该集群需要正常运行一段时间(约10分钟),才可以实时查看其监控指标。 集群已正常运行一段时间(约10分钟)。 已创建告警规则。 操作步骤 1.登录管理控制台。 2.选择“管理与部署 > 云监控服务”。 3.在左侧导航树栏,选择“云服务监控 > 云搜索服务”。 4.在监控列表中待查看的集群所在行的“操作”列,单击“查看监控指标”。 5.选择待查看的时间段页签。 6.查看监控指标数据。
        来自:
        帮助文档
        云搜索服务
        用户指南
        监控集群
        查看监控指标
      • 本地Linux主机使用SCP上传文件到Linux云主机
        在本地Linux操作系统主机上执行以下命令,传输文件到Linux操作系统云主机。 scp 本地主机文件地址 用户名@弹性公网IP:云主机文件地址 例如:将本地文件 /home/1.txt 上传至弹性公网IP地址为121.x.x.x的云主机对应目录下,命令如下: scp /home/1t.txt root@121.x.x.x:/home 根据提示输入登录密码,即可完成上传。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        文件上传/数据传输
        本地Linux主机使用SCP上传文件到Linux云主机
      • 扩容磁盘
        本章节主要介绍如何给物理机扩容磁盘。 当云硬盘空间不足时,可以为其扩容,系统盘和数据盘均支持扩容,系统盘的大小上限为1TB。扩容方法请参考《云硬盘用户指南》中的“扩容硬盘”章节。 扩容成功后,还需要对扩容部分的云硬盘分配分区: 对系统盘的扩容后处理请参见《云硬盘用户指南》中“扩展磁盘分区和文件系统(Windows 2008)”或“扩展磁盘分区和文件系统(Linux)”章节。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        存储
        扩容磁盘
      • DDoS高防(边缘云版)服务等级协议
        本节介绍了DDoS高防(边缘云版)服务等级协议。 DDoS高防(边缘云版)服务等级协议,详情请参见这里。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        相关协议
        DDoS高防(边缘云版)服务等级协议
      • Ingress配置接入指南
        本章节介绍如何进行Ingress配置接入 前置条件 1. 开通云容器引擎集群 2. 开通MSE云原生网关实例,绑定公网ELB 3. 需要部署的镜像已经上传到镜像仓库 云原生网关配置 1. 配置云容器引擎服务来源,安装Ingress controller(注意配置我们要监听的命名空间的标签,这里我们只监听带有mseingresswatching的命名空间) 创建完成后可以看到云容器引擎上Ingress controller安装成功 2. 部署应用 给demo应用添加标签mseingresswatching 在demo命名空间下部署我们的测试应用(请确保镜像已经推送到镜像仓库),这里我们使用istio的bookinfo说明,部署完成后demo命名空间下的应用列表如下: 如果需要正常访问bookinfo应用需要配置以下路由规则: 路径精确匹配:/productpage,/login,/logout 路径前缀匹配:/static/,/api/v1/products/ 访问后端productpage服务 其中/productpage 路径是我们应用的访问入口 此时我们访问云原生网关的ELB地址: 由于此时我们还没有创建服务和路由规则,访问会返回404错误
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        Ingress管理
        Ingress配置接入指南
      • 约束与限制
        本章节介绍磁盘的约束与限制。 场景 限制项 限制说明 创建磁盘 磁盘模式 磁盘的磁盘模式在创建完成后不支持更改。 创建磁盘 共享盘 磁盘的共享属性在创建完成后不支持更改。 创建磁盘 加密磁盘 磁盘的加密属性在创建完成后不支持更改。 挂载磁盘 非共享盘可同时挂载的云主机数量 1台 挂载磁盘 共享盘可同时挂载的云主机数量 16台 扩容磁盘 扩容磁盘 支持扩大磁盘容量,不支持缩小磁盘容量。 扩容磁盘 扩容非共享盘 部分云主机操作系统支持非共享盘处于“正在使用”状态扩容。 扩容磁盘 扩容共享盘 扩容时必须从云主机卸载,共享盘处于“可用”状态扩容。 扩容磁盘 扩容步长 1GB 卸载磁盘 卸载系统盘 系统盘目前支持离线卸载,即云主机处于“关机”状态,才可以卸载系统盘。 卸载磁盘 卸载数据盘 数据盘支持离线或者在线卸载,即云主机处于“关机”或“运行中”状态进行卸载。 删除磁盘 当磁盘状态为“可用”、“错误”、“扩容失败”和“恢复数据失败”时,才可以删除磁盘。 对于共享盘,必须卸载所有的挂载点之后才可以删除。 磁盘容量 单个系统盘最大支持容量 高IO:1024 GB 超高IO:1024 GB 磁盘容量 单个数据盘最大支持容量 高IO:32768 GB 超高IO:32768 GB 磁盘容量 MBR磁盘分区形式支持的磁盘最大容量 2 TB 磁盘容量 GPT磁盘分区形式支持的磁盘最大容量 18 EB
        来自:
        帮助文档
        专属云(存储独享型)
        产品介绍
        约束与限制
      • 云搜索服务用户操作指南
        本章节主要介绍云搜索服务(ES)用户操作指南的下载。 点此下载:《云搜索服务用户操作指南》
        来自:
        帮助文档
        云搜索服务
        文档下载
        云搜索服务用户操作指南
      • 启动实例
        本页介绍天翼云TeleDB数据库启动实例。 操作场景 当实例处于停止状态时,TeleDB支持手动启动实例,启动实例所有组件进程。 约束与限制 启动实例过程中不支持备份和重置密码等操作。 操作步骤 1. 切换至TeleDB控制台,在左侧导航树单击实例列表 ,进入实例列表页面。 2. 在实例列表页面,单击目标实例所在行的详情 ,进入实例详情页面。 3. 在实例详情页面,在操作下拉框,单击启动实例 ,出现提示 对话框。 4. 在提示 对话框,单击确定 启动实例。 5. 您在单击立即前往 ,跳转至任务管理中查看执行情况。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        维护管理实例
        启动实例
      • 私网NAT网关简介
        本文主要介绍私网NAT网关 私网NAT网关(Private NAT Gateway),能够为虚拟私有云内的云主机(弹性云主机、物理机)提供私网地址转换服务。您可以在私网NAT网关上配置SNAT、DNAT规则,可将源、目的网段地址转换为中转IP,通过使用中转IP实现VPC内的云主机与其他VPC、云下IDC互访。 私网NAT网关分为SNAT和DNAT两个功能: SNAT功能通过绑定中转IP,可实现VPC内跨可用区的多个云主机共享中转IP,访问外部数据中心或其他VPC。 DNAT功能通过绑定中转IP,可实现IP映射或端口映射,使VPC内跨可用区的多个云主机共享中转IP,为外部私网提供服务。 中转子网 中转子网相当于一个中转网络,您可以在中转子网中创建私网IP,即中转IP,使本端VPC中的云主机可以共享该中转IP访问用户IDC或其他远端VPC。 中转VPC 中转子网所在VPC。 图 私网NAT网关 公网NAT网关与私网NAT网关对比 公网NAT网关通过配置SNAT规则将私有IP映射为弹性公网IP,实现VPC内的云主机通过共享弹性公网IP访问互联网;配置DNAT规则共享弹性公网IP为公网提供服务。 私网NAT网关通过配置SNAT规则将私有IP映射为中转IP,实现VPC内的云主机访问私网中的用户数据中心或其他VPC;配置DNAT规则共享中转IP为私网提供服务。 下表概括了公网NAT网关和私网NAT网关间的差异: 表 公网NAT网关与私网NAT网关对比 功能项 公网NAT网关 私网NAT网关 功能 私网和公网间互通 私网和私网间互通 SNAT功能 访问公网 访问私网中的IDC或其他VPC DNAT功能 为公网提供服务 为私网中的IDC或其他VPC提供服务 互通媒介 弹性IP 中转IP
        来自:
        帮助文档
        NAT网关
        用户指南
        私网NAT网关
        私网NAT网关简介
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 超高IO型I3
        功能 I3型弹性云主机的IOPS(Input/Output Operations Per Second)性能如下表所示。 表 I3型弹性云主机IOPS性能 规格名称 4KB随机读最大IOPS :: i3.2xlarge.8 750000 i3.4xlarge.8 1500000 i3.8xlarge.8 3000000 i3.12xlarge.8 4500000 i3.15xlarge.8 5250000 表 I3型弹性云主机NVMe单盘指标 指标 性能 :: 磁盘容量 1.6T 读IOPS(4KB随机读) 750000 写IOPS(4KB随机写) 200000 读吞吐量 2.9 GiB/s 写吞吐量 1.9 GiB/s 访问时延 微秒级
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        超高IO型
        超高IO型I3
      • 远程登录忘记密码怎么办
        本文介绍远程登录忘记密码怎么办 如忘记登录密码,可通过 “ 重置密码 ” 功能设置新密码。 您可以通过弹性云主机控制台重置密码,点击更多重置密码更改密码,使用新密码再进行登录。具体操作步骤如下: 1. 打开弹性云主机控制台页面。 2. 选择您需要重置密码的弹性云主机,点击“更多”按钮。 3. 在弹出的下拉菜单中,选择“重置密码”选项。 4. 在弹出的重置密码窗口中,您需要输入一个新的密码,并确认一遍输入正确的密码。请注意密码的规则为8~30 个字符,必须同时包含三项(大写字母、小写字母、数字、 ()~!@$%^&+{}[]:;'<>,.?/ 中的特殊符号),且不能以斜线号(/)开头,不能包含连续字符。 5. 点击“确定”按钮,系统会提示您重置密码成功。 6. 使用新密码登录弹性云主机控制台,进行后续操作。 更多可以参考在控制台重置密码。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        登录前准备类
        远程登录忘记密码怎么办
      • 升级实例版本
        本章节为您介绍如何升级云堡垒机的实例版本。 新版本的云堡垒机对系统进行了功能优化或添加了新功能,请及时升级版本。 注意 在堡垒机升级至1.3.0版本后,需要卸载旧的访问插件,在“运维设置 > 访问插件”中下载最新版本插件进行安装。 堡垒机在升级失败后会自动回退版本。 前提条件 已获取管理控制台的登录账号与密码。 已绑定EIP,且EIP可用。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 云堡垒机(原生版)”,进入云堡垒机实例管理页面。 3. 选择需变更升级的实例,单击实例名称旁的“升级”。 4. 在弹出的对话框中单击“确认”,堡垒机开始进行自动升级并且堡垒机的状态会变为“升级中”。 5. 待堡垒机状态变为“运行中”即表示升级已经结束,可正常使用堡垒机。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        实例管理
        升级实例版本
      • 总体调优思路
        本节介绍了云数据库GaussDB 的总体调优思路。 云数据库GaussDB 的总体性能调优思路为性能瓶颈点分析、关键参数调整以及SQL调优。在调优过程中,通过系统资源、吞吐量、负载等因素来帮助定位和分析性能问题,使系统性能达到可接受的范围。 云数据库GaussDB 性能调优过程需要综合考虑多方面因素,因此,调优人员应对系统软件架构、软硬件配置、数据库配置参数、并发控制、查询处理和数据库应用有广泛而深刻的理解。 须知: 性能调优过程有时候需要重启集群,可能会中断当前业务。因此,业务上线后,当性能调优操作需要重启集群时,操作窗口时间需向管理部门提出申请,经批准后方可执行。 调优流程 图 云数据库GaussDB 性能调优流程
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        性能调优
        总体调优思路
      • 相关术语解释
        本节主要介绍相关术语解释。 使用云容器引擎服务,会涉及到以下基本概念: 集群: 是指容器运行所需云资源的集合,包含了若干台云主机、负载均衡器等云资源。 实例(Pod): 由相关的一个或多个容器构成一个实例,这些容器共享相同的存储和网络空间。 工作负载: Kubernetes资源对象,用于管理Pod副本的创建、调度以及整个生命周期的自动控制。 Service: 由多个相同配置的实例(Pod)和访问这些实例(Pod)的规则组成的微服务。 Ingress: Ingress是用于将外部HTTP(S)流量路由到服务(Service)的规则集合。 Helm应用 :Helm是管理Kubernetes应用程序的打包工具,提供了Helm Chart在指定集群内图形化的增删改查。 镜像仓库 :用于存放Docker镜像,Docker镜像用于部署容器服务。 您在使用前可以了解更多Kubernetes相关知识,具体请参见:<
        来自:
        帮助文档
        云容器引擎
        产品简介
        相关术语解释
      • 其他操作
        本小节介绍云解析记录导出、操作日志、统计报告等其他操作。 记录导出 1. 登录控制中心找到云解析产品列表,点击“解析管理”进入域名维护页面。 2. 在域名维护页面,点击要修改的域名进入域名管理页。 3. 点击页面右上方“域名设置”可进行域名记录导出操作。可根据需要的线路类型导出记录。 操作日志 1. 登录控制中心找到云解析产品列表,点击“解析管理”进入域名维护页面。 2. 在域名维护页面,点击要修改的域名进入域名管理页。 3. 点击页面右上方“域名设置”可查看最近300次操作日志。 统计报告 1. 登录控制中心找到云解析产品列表,点击“解析管理”进入域名维护页面。 2. 在域名维护页面,点击要修改的域名进入域名管理页。 3. 点击页面右上方“解析量统计”可查看统计报告。
        来自:
        帮助文档
        云解析
        用户指南
        其他操作
      • 手动搭建LNMP环境
        如果您需要在弹性云主机的Linux实例上手工搭建LNMP平台的web环境,可以参考本文内容。 本文主要介绍了在天翼云上如何使用弹性云主机的Linux实例手工搭建LNMP平台的web环境。该指导具体操作以CentOS 7.2 64位操作系统为例。 操作流程 安装nginx。 安装MySQL。 安装PHP。 浏览器访问测试。 前提条件 弹性云主机已绑定弹性IP。 弹性云主机所在安全组添加了如下表所示的安全组规则,具体步骤参见为安全组添加安全组规则。 方向 协议/应用 端口/范围 源地址 入方向 HTTP(80) 80 0.0.0.0/0 操作步骤 安装nginx。 1. 登录弹性云主机。 2. 执行以下命令,下载对应当前系统版本的nginx包。 plaintext wget 3. 执行以下命令,建立nginx的yum仓库。 plaintext rpm ivh nginxreleasecentos70.el7.ngx.noarch.rpm 4. 执行以下命令,安装nginx。 plaintext yum y install nginx 5. 执行以下命令,启动nginx并设置开机启动。 plaintext systemctl start nginx systemctl enable nginx 6. 使用浏览器访问 “
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建环境相关最佳实践
        手动搭建LNMP环境
      • 云容器集群Pod Java方法调用延迟
        本章节介绍云容器集群Pod Java方法调用延迟故障演练。 背景介绍 在 CCE 环境中,Java 应用可能因外部依赖变慢、数据库压力、线程池耗尽、锁竞争或 GC 停顿等原因导致方法调用变慢,引发接口延迟和请求堆积。本演练通过在资源 Pod 内注入 Java 方法延迟,模拟生产中的慢调用故障。 基本原理 通过Java Agent拦截指定JVM进程内方法,增加sleep操作模拟调用延迟。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择云容器引擎,然后单击添加资源。 3. 在弹出的对话框中,勾选目标云容器引擎实例,单击确定。 4. 在应用资源 页面的云容器引擎 列表中,找到您的目标集群,单击其操作列的pod列表。 5. 在弹出的对话框中,单击添加pod。 6. 勾选您希望进行故障演练的一个或多个pod ,然后单击确定。 注意 当您首次对 CCE 集群执行演练时,系统会自动在该集群中安装演练探针(以 Deployment 和 DaemonSet 形式部署)。 您也可以提前在 故障演练 > 目标应用 > 探针管理 > 云容器引擎 界面查看探针的基本信息,并手动执行安装或更新操作。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod Java方法调用延迟
      • 云容器集群Pod Java方法调用延迟(1)
        本章节介绍云容器集群Pod Java方法调用延迟故障演练。 背景介绍 在 CCE 环境中,Java 应用可能因外部依赖变慢、数据库压力、线程池耗尽、锁竞争或 GC 停顿等原因导致方法调用变慢,引发接口延迟和请求堆积。本演练通过在资源 Pod 内注入 Java 方法延迟,模拟生产中的慢调用故障。 基本原理 通过Java Agent拦截指定JVM进程内方法,增加sleep操作模拟调用延迟。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择云容器引擎,然后单击添加资源。 3. 在弹出的对话框中,勾选目标云容器引擎实例,单击确定。 4. 在应用资源 页面的云容器引擎 列表中,找到您的目标集群,单击其操作列的pod列表。 5. 在弹出的对话框中,单击添加pod。 6. 勾选您希望进行故障演练的一个或多个pod ,然后单击确定。 注意 当您首次对 CCE 集群执行演练时,系统会自动在该集群中安装演练探针(以 Deployment 和 DaemonSet 形式部署)。 您也可以提前在 故障演练 > 目标应用 > 探针管理 > 云容器引擎 界面查看探针的基本信息,并手动执行安装或更新操作。
        来自:
      • 创建并通过MySQL-Front连接TaurusDB实例
        参数 描述 虚拟私有云 TaurusDB数据库实例所在的虚拟专用网络,可以对不同业务进行网络隔离,以提高网络安全性。 您需要选择所需的虚拟私有云和子网。如果没有可选的虚拟私有云,TaurusDB会为您分配一个默认的虚拟私有云(defaultvpc),您也可以使用已有、新建VPC和子网。 须知 TaurusDB实例创建完成后不支持切换虚拟私有云,请谨慎选择所属虚拟私有云。 内网安全组 内网安全组限制实例的安全访问规则,加强TaurusDB数据库服务与其他服务间的安全访问。请确保所选取的内网安全组允许客户端访问数据库实例。 如果不创建内网安全组或没有可选的内网安全组,TaurusDB数据库服务默认为您分配内网安全组资源。 IPv6 启用IPv6前,请确保数据库实例所在的VPC和子网已开启IPv6配置,在VPC和子网开启IPv6配置的应用场景和操作步骤。 启用IPv6后,数据库实例可在双堆栈模式下运行,即可以拥有两个不同版本的IP地址:IPv4地址和IPv6地址。此时实例通过IPv4和IPv6进行通信,且IPv4和IPv6通信彼此独立。
        来自:
        帮助文档
        云数据库TaurusDB
        快速入门
        连接实例
        创建并通过MySQL-Front连接TaurusDB实例
      • 脚本管理
        此小节介绍云堡垒机的如何进行脚本管理。 云堡垒机支持脚本管理功能。通过执行脚本,完成复杂或重复的运维任务,提升运维效率。云堡垒机支持在线编辑脚本和以文件方式导入脚本。 新建脚本 约束限制 仅专业版云堡垒机支持脚本管理功能。 仅支持管理Python和Shell两种脚本语言。 脚本仅能由个人帐户管理,不能被系统内其他用户管理。 前提条件 已获取“脚本管理”模块管理权限。 操作步骤 1 登录云堡垒机系统。 2 选择“运维 > 脚本管理 ”,进入脚本列表页面。 脚本列表 3 单击“新建”,弹出“新建脚本”窗口。 新建脚本信息 4 配置脚本基本信息。 新建脚本信息参数说明 参数 说明 :: 来源 脚本内容来源。 “在线编辑”手动编辑脚本信息。 “文件导入”导入线下脚本文件,文件大小不能超过5M。 所属部门 选择脚本所属部门。 名称 自定义的脚本策略名称,系统内脚本“名称”不能重复。 说明 “文件导入”方式上传的脚本,名称会根据导入文件名自动填充。 描述 脚本简要描述。 5 单击“确定”,返回脚本列表页面,查看新建的脚本信息。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        运维管理
        脚本管理
      • 操作手册
        天翼云为您提供虚拟私有云的产品使用手册,请您点击下载查看。 虚拟私有云用户手册.pdf
        来自:
        帮助文档
        虚拟私有云 VPC
        文档下载
        操作手册
      • 云监控基础服务计费说明
        本文对云监控基础服务产品计费进行说明。 云监控基础服务为免费。您无需手动开通,可直接使用,但监控对象依赖用户所订购的产品资源,例如:云主机、云硬盘等。同时部分云监控基础服务所依赖服务有一定配额限制。其中短信免费额度为每用户、每月1000条。
        来自:
        帮助文档
        云监控服务
        计费说明
        云监控基础服务计费说明
      • 使用限制
        产品功能 云公司/云省分线上渠道客户 云公司/云省分线下渠道客户 省公司线上渠道客户 省公司线下渠道客户 创建财务独立子账号 支持 支持 不支持 不支持 创建财务托管子账号 支持 支持 不支持 不支持 邀请财务独立子账号 支持 支持 不支持 不支持 继承主账号商务折扣(账号折扣) 不支持 支持 不支持 不支持 消费汇总 支持 支持 不支持 不支持 订单管理 支持 支持 不支持 不支持 发票管理 支持 不支持 不支持 不支持 消费明细 支持 支持 不支持 不支持 资金拨款 支持 不支持 不支持 不支持 限制订购 支持 支持 不支持 不支持
        来自:
        帮助文档
        财务管理
        产品介绍
        使用限制
      • 1
      • ...
      • 218
      • 219
      • 220
      • 221
      • 222
      • ...
      • 513
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      推荐文档

      系统访问

      产品价格

      云课堂 第十六课:天翼云语音听写AI云服务测试Demo(Pyth

      查看业务关键性能指标

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号