活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云服务器配置_相关内容
      • 查询账单
        您可以在天翼云费用中心查询VPN网关产品的账单。 操作步骤 1.登录天翼云费用中心。 2.在导航栏中,选择账单管理>账单详情。 3.在账单详情页面,将“统计维度”选择为“产品”,“计费模式”选择为“包周期”,可以支持以按账期或按天的统计方式查看VPN网关产品的消费情况。 4.在账单管理>账单概览页面,支持按产品类型、企业项目或计费模式对产品账单进行汇总展示。
        来自:
        帮助文档
        VPN连接
        产品计费
        查询账单
      • 连接实例
        场景说明 RocketMQ提供了两种连接: 生产者连接:生产者通过调用RocketMQ提供的API,与RocketMQ代理(Broker)建立连接。生产者连接主要用于发送消息到RocketMQ。 消费者连接:消费者通过调用RocketMQ提供的API,与RocketMQ代理(Broker)建立连接。消费者连接主要用于从RocketMQ订阅消息并进行消费。 RocketMQ采用基于TCP/IP的通信协议,使用长连接方式进行连接。在建立连接之前,需要配置正确的RocketMQ服务端地址和端口,并使用相应的身份验证信息(如AccessKey和SecretKey)进行认证。 建立连接后,RocketMQ客户端可以通过连接发送消息到RocketMQ集群,并从集群中接收消息进行消费。连接的建立和维护是RocketMQ消息传递的基础,确保了消息的可靠传递和高效处理。 操作步骤 首先需要在RocketMQ控制台实例详情记录下集群的接入点信息,目前默认支持Namesrv的内网访问,将该地址作为客户端程序Namesrv地址的参数,具体生产消费消息的客户端示例代码请参考快速入门生产消费验证。 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入主题管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和主题。 5、 用户应用按照规范接入RocketMQ,发送、消费消息。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        连接实例
      • 添加实例节点
        您可以根据实际情况,为DRDS实例添加计算节点。 注意 仅2025年4月25日00:00以后创建的实例支持该功能。 如果您想为2025年4月25日00:00之前创建的实例添加计算节点,则可以通过规格变更 的方式来添加节点,即在规格变更时,保持当前实例类型 不变,将实例规格 设置为更多的节点数,具体操作,请参见规格变更。 前提条件 实例状态为运行中。 约束限制 仅V5.1.20.0.13及以后版本的DRDS实例支持跨可用区新增节点。 每个可用区最多支持6个节点。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,然后在操作 列,选择更多 > 添加节点。 4. 在节点增加页面,配置所需的计算节点数量。 5. 在页面右下角阅读并勾选协议后,单击提交。 按照界面提示,完成相应的支付操作后,您可以在DRDS > 实例管理 页面,单击目标实例操作 列的管理 进入实例基本信息 页面,然后在基本信息 区域查看实例的节点数量信息。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        实例管理
        添加实例节点
      • 创建上级平台
        本节主要介绍如何在智能视图服务控制台创建上级平台。 点击【视频服务向上级联】,在该模块内,可在顶部查看完成平台创建的全流程指南。 点击【创建平台】,在平台创建页面配置上级平台信息,相关参数定义如下: 参数 描述 平台名称 向上级联的平台名称。 SIP服务国标编码 该信息一般由上级平台提供,也可以由上下级平台协商确定,用于上下级平台相互身份鉴权。 SIP服务国标域 SIP服务国标域默认截取SIP服务国标编码的前10位。 SIP服务IP/端口 由上级平台提供。 设备国标编号 下级平台的国标编号。 级联区域 上下级平台进行级联的区域,一般选择较近的区域即可。 网络类型 默认选择互联网,专线网络需要天翼云提供IP和端口信息。 开启鉴权 根据级联需要选择开启/关闭鉴权功能。 SIP认证用户名 对应上级平台接入信息设备国标ID。 SIP认证密码 对应上级平台关联的GB28181凭证的凭证密码。 级联方式 根据GB 28181协议标准,支持虚拟业务组和行政区划两种方式(将会影响平台下设备目录的构建方式)。 所属行业 根据GB 28181协议标准,选择所属行业。 上级级联区域 选择上级平台的所属区域。 信令传输 支持TCP和UDP两种协议。 字符集 支持GB2312和UTF8两种字符集,UTF8涵盖更广泛的中文字符范围,而GB2312在平台兼容性方面表现更为稳定。在平台对接中,若未明确指定字符集,建议优先选择GB2312。 35114国密认证 开启35114国密认证,需要上级平台支持。开启后,您需要在级联平台页面创建证书请求并上传相关证书。 注册周期 注册周期不小于300秒。 心跳周期 心跳周期不小于60秒。 分组目录大小 执行目录推送任务的时候,单个消息包含的目录数量。 权限集合 支持复选,包含云台、流保活、录像下载和语音对讲。 是否使用通道的实际名称 开启该功能,NVR通道向上级联使用通道的实际名称,仅支持GB28181协议和EHOME协议。 级联映射 上下级平台因防火墙等情况无法访问时,开启该选项,可分别配置本地和上级地址映射。 描述 请输入平台级联的相关描述,例如平台属性、用途等。 完成平台创建后,可结束当前流程返回首页平台列表,也可按顶部流程指导,点击【继续】按钮进入第二步【向上级联管理级联组织树】,进行设备目录配置。
        来自:
        帮助文档
        智能视图服务
        用户指南
        向上级联
        创建上级平台
      • 创建上级平台
        本节主要介绍如何在智能视图服务控制台创建上级平台。 点击【视频服务向上级联】,在该模块内,可在顶部查看完成平台创建的全流程指南。 点击【创建平台】,在平台创建页面配置上级平台信息,相关参数定义如下: 参数 描述 平台名称 向上级联的平台名称。 SIP服务国标编码 该信息一般由上级平台提供,也可以由上下级平台协商确定,用于上下级平台相互身份鉴权。 SIP服务国标域 SIP服务国标域默认截取SIP服务国标编码的前10位。 SIP服务IP/端口 由上级平台提供。 设备国标编号 下级平台的国标编号。 级联区域 上下级平台进行级联的区域,一般选择较近的区域即可。 网络类型 默认选择互联网,专线网络需要天翼云提供IP和端口信息。 开启鉴权 根据级联需要选择开启/关闭鉴权功能。 SIP认证用户名 对应上级平台接入信息设备国标ID。 SIP认证密码 对应上级平台关联的GB28181凭证的凭证密码。 级联方式 根据GB 28181协议标准,支持虚拟业务组和行政区划两种方式(将会影响平台下设备目录的构建方式)。 所属行业 根据GB 28181协议标准,选择所属行业。 上级级联区域 选择上级平台的所属区域。 信令传输 支持TCP和UDP两种协议。 字符集 支持GB2312和UTF8两种字符集,UTF8涵盖更广泛的中文字符范围,而GB2312在平台兼容性方面表现更为稳定。在平台对接中,若未明确指定字符集,建议优先选择GB2312。 35114国密认证 开启35114国密认证,需要上级平台支持。开启后,您需要在级联平台页面创建证书请求并上传相关证书。 注册周期 注册周期不小于300秒。 心跳周期 心跳周期不小于60秒。 分组目录大小 执行目录推送任务的时候,单个消息包含的目录数量。 权限集合 支持复选,包含云台、流保活和录像下载。 是否使用通道的实际名称 开启该功能,NVR通道向上级联使用通道的实际名称,仅支持GB28181协议和EHOME协议。 级联映射 上下级平台因防火墙等情况无法访问时,开启该选项,可分别配置本地和上级地址映射。 描述 请输入平台级联的相关描述,例如平台属性、用途等。 完成平台创建后,可结束当前流程返回首页平台列表,也可按顶部流程指导,点击【继续】按钮进入第二步【向上级联管理级联组织树】,进行设备目录配置。
        来自:
      • Java客户端连接配置
        本文为您介绍分布式消息服务MQTT客户端连接配置。 引入依赖//版本号按需调整 org.eclipse.paho org.eclipse.paho.client.mqttv3 1.2.5 连接mqtt云消息服务的示例代码如下: import java.security.SecureRandom; import java.security.cert.X509Certificate; import javax.net.ssl.SSLContext; import javax.net.ssl.TrustManager; import javax.net.ssl.X509TrustManager; import org.eclipse.paho.client.mqttv3.IMqttDeliveryToken; import org.eclipse.paho.client.mqttv3.MqttCallbackExtended; import org.eclipse.paho.client.mqttv3.MqttClient; import org.eclipse.paho.client.mqttv3.MqttConnectOptions; import org.eclipse.paho.client.mqttv3.MqttException; import org.eclipse.paho.client.mqttv3.MqttMessage; import org.eclipse.paho.client.mqttv3.persist.MemoryPersistence; public class ConnTest { // 填入您在mqtt控制台创建的ACL账号密码。 private static final String USERNAME "yourusername"; private static final String AUTHPASSWORD "yourpassword"; // 是否使用tls加密传输 private static final Boolean isTls true; public static void main(String[] args) { // 填写mqtt云消息服务的接入点。接入点分为tls以及非tls两种接入。tls接入格式为:ssl://{ip}:8085 String broker "tcp://localhost:1883"; // 指定连接客户端的id,该id可用于查询连接会话信息以及设备轨迹信息。 String clientId "ctgmqttclienttest"; MemoryPersistence persistence new MemoryPersistence(); try { final MqttClient myClient getMqttClient(broker, clientId, persistence); MqttConnectOptions connOpts new MqttConnectOptions(); connOpts.setCleanSession(true); connOpts.setUserName(USERNAME); connOpts.setPassword(AUTHPASSWORD.toCharArray()); // 设置心跳间隔(这里示例为2分钟) connOpts.setKeepAliveInterval(120); // 设置自动重连 connOpts.setAutomaticReconnect(true); // 设置tls相关配置(可选) // 目前暂未支持自动配置ssl证书,默认的ssl证书需要客户端进行默认证书信任。不影响正常的tls链路加密 if (isTls) { SSLContext sslContext SSLContext.getInstance("TLS"); // 默认信任服务端ssl证书 sslContext.init(null, new TrustManager[]{new X509TrustManager() { public void checkClientTrusted(X509Certificate[] chain, String authType) { } public void checkServerTrusted(X509Certificate[] chain, String authType) { } public X509Certificate[] getAcceptedIssuers() { return new X509Certificate[0]; } }}, new SecureRandom()); // 可以按照自定义的方式进行ssl证书的主机名验证 connOpts.setHttpsHostnameVerificationEnabled(false); connOpts.setSSLHostnameVerifier((hostname, session) > true); connOpts.setSocketFactory(sslContext.getSocketFactory()); } System.out.println("Connecting to broker: " + broker); myClient.connect(connOpts); System.out.println("Connected"); // 这里编写您的消息收发逻辑 myClient.disconnect(); System.out.println("Disconnected"); System.exit(0); } catch (MqttException me) { // 打印详细的错误信息。 System.out.println("reason " + me.getReasonCode()); System.out.println("msg " + me.getMessage()); System.out.println("cause " + me.getCause()); System.out.println("excep " + me); me.printStackTrace(); } catch (Exception e) { throw new RuntimeException(e); } } private static MqttClient getMqttClient(String broker, String clientId, MemoryPersistence persistence) throws MqttException { final MqttClient myClient new MqttClient(broker, clientId, persistence); myClient.setCallback(new MqttCallbackExtended() { @Override public void connectComplete(boolean reconnect, String serverURI) { // 连接建立成功 } @Override public void connectionLost(Throwable cause) { // 连接丢失,建议记录日志,做好监控 } @Override public void messageArrived(String topic, MqttMessage message) throws Exception { // 收到消息的回调,这里不要进行阻塞操作,以免卡住导致连接断开 } @Override public void deliveryComplete(IMqttDeliveryToken token) { // 成功发送消息到服务端 } }); return myClient; } }
        来自:
        帮助文档
        分布式消息服务MQTT
        最佳实践
        Java客户端连接配置
      • 登录账号
        本文介绍登录数据管理服务DMS的账号。 本文介绍登录数据管理服务账号的方法。 登录方式 目前数据管理服务仅支持使用天翼云账号登录控制台。 前提条件 具备天翼云账号(主账号/子账号)。 注意 天翼云子账号进入DMS前,需确保该子账号对应的天翼云主账号已登录过DMS。 功能介绍 您可以使用天翼云账号登录、跳转,使用数据管理服务。 在开始使用数据管理服务之前,您需要先注册一个天翼云账号。请访问我们的官方网址并点击右上角“免费注册”按钮。在注册页面中,您需要填写您的个人信息,包括电子邮箱、密码、手机号码等。请确保您填写的信息真实有效,以便我们能够及时向您提供服务。注册成功后,您可以使用注册时填写的电子邮箱或其他可用的登录方式登录天翼云。在登录过程中,系统将验证您的账号信息。如果验证通过,您将成功登录到天翼云官网。 在天翼云官网页面,您可以通过产品 > 数据库 > 数据库生态工具 > 数据管理服务的层次树进入数据管理服务产品详情页。 您在数据管理服务产品详情页上首次点击“立即开通”或“管理控制台”按钮均可进入产品订购页。根据指引完成订购后,再次点击“管理控制台”即可跳转至数据管理服务控制台执行操作。 注意事项 输入正确的信息:仔细核对输入的邮箱和密码,确保无误。如果输入错误的信息导致登录失败,可以重新填写正确的信息进行尝试。 保持登录状态:成功登录数据管理服务后,您将保持登录状态,直到主动退出或关闭服务。请注意保护个人隐私和数据安全,避免在公共场合使用时泄露敏感信息。 定期更新密码:为了确保账户安全,建议定期更新您的账号密码。避免使用容易猜到的密码,如生日、姓名等。同时,也建议定期更换密码复杂的随机密码以提高安全性。 注意账户活动:如果发现有异常的账户活动或操作,请立即联系我们的客服支持团队以获取帮助和解决方案。我们会对您的账户活动进行监控和管理以确保您的数据安全。
        来自:
        帮助文档
        数据管理服务
        用户指南
        控制台首页
        登录账号
      • 怎样调整系统盘分区?
        mkfs t ext4 /dev/xvda3 mke2fs 1.42.9 (28Dec2013) Filesystem label OS type: Linux Block size4096 (log2) Fragment size4096 (log2) Stride0 blocks, Stripe width0 blocks 1790544 inodes, 7156992 blocks 357849 blocks (5.00%) reserved for the super user First data block0 Maximum filesystem blocks2155872256 219 block groups 32768 blocks per group, 32768 fragments per group 8176 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000 Allocating group tables: done Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done 步骤 5 将新建分区挂载到需要增加空间的目录下 新增加的分区挂载到不为空的目录时,该目录下原本的子目录和文件会被隐藏,所以,新增的分区最好挂载到空目录或者新建目录。如果确实要挂载到不为空的目录,可将该目录下的子目录和文件临时移动到其他目录下,待新分区挂载成功后,再将子目录和文件移动回来。 以新建目录/root/new为例: 1. 执行以下命令,在/root下新建目录new。 mkdir /root/new 2. 执行以下命令,将新分区挂载至“/root/new”目录。 mount /dev/xvda3 /root/new 回显类似如下: [root@ecs86dc ] mount /dev/xvda3 /root/new [root@ecs86dc ] 3. 执行以下命令,查看挂载结果。 df TH 回显类似如下: 图 查看挂载结果 步骤 6 根据需要,判断是否需要将新增磁盘设置为开机自动挂载 如果未设置开机自动挂载,重启弹性云主机后,用户需要将新建分区重新挂载至指定目录。 是,执行步骤7。 否,任务结束。 步骤 7 设置开机自动挂载新增磁盘 说明 禁止将未经过格式化的磁盘设为开机自动挂载,否则会导致弹性云主机无法正常启动。 1. 执行以下命令,获取文件系统类型、UUID。 blkid 图 查看文件系统类型 则新建分区的UUID96e5e028b0fb4547a82a35ace1086c4f。 2. 执行以下命令,使用vi编辑器打开“fstab”文件。 vi /etc/fstab 3. 按“i”,进入编辑模式。 4. 将光标移动至文件末尾,按“Enter”,并添加如下语句: UUID96e5e028b0fb4547a82a35ace1086c4f /root/new ext4 defaults 0 0 5. 按“Esc”,执行以下命令,并按“Enter”,保存设置并退出编辑器。 :wq 说明 将新增磁盘设置为开机自动挂载后,如果要卸载该磁盘,必须先删除新增磁盘的自动挂载配置信息,否则卸载该磁盘后,会导致弹性云主机无法正常启动。删除自动挂载配置信息的方法为: 1. 执行以下命令,使用vi编辑器打开“fstab”文件。 vi /etc/fstab 2. 按“i”,进入编辑模式。 3. 删除如下语句: UUID96e5e028b0fb4547a82a35ace1086c4f /root/new ext4 defaults 0 0 4. 按“Esc”,执行以下命令,并按“Enter”,保存设置并退出编辑器。 :wq
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        磁盘管理
        磁盘分区与虚拟内存类
        怎样调整系统盘分区?
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • OMS健康检查指标项说明
        帐户及密码过期检查 指标项名称 :帐户及密码过期检查 指标项含义 :该指标项检查MRS的两个操作系统用户omm和 ommdba 。对操作系统用户,同时检查帐户及密码的过期时间。如果帐户或密码有效期小于等于15天,则认为不健康。 恢复指导 :如果帐户或密码有效期小于等于15天,建议及时联系运维人员处理。
        来自:
      • DDS自定义策略
        本章节介绍DDS的自定义策略。 如果系统预置的DDS权限,不满足您的授权要求,可以创建自定义策略。 目前天翼云支持以下两种方式创建自定义策略: 可视化视图创建自定义策略:无需了解策略语法,按可视化视图导航栏选择云服务、操作、资源、条件等策略内容,可自动生成策略。 JSON视图创建自定义策略:可以在选择策略模板后,根据具体需求编辑策略内容;也可以直接在编辑框内编写JSON格式的策略内容。 本章为您介绍常用的DDS自定义策略样例。 DDS自定义策略样例 示例1:授权用户创建文档数据库实例 { "Version": "1.1", "Statement": [ { "Effect": "Allow", "Action": [ "dds:instance:create" ] } ] } 示例2:拒绝用户删除文档数据库实例 拒绝策略需要同时配合其他策略使用,否则没有实际作用。用户被授予的策略中,一个授权项的作用如果同时存在Allow和Deny,则遵循 Deny优先原则 。 如果您给用户授予DDS FullAccess的系统策略,但不希望用户拥有DDS FullAccess中定义的删除文档数据库实例权限,您可以创建一条拒绝删除文档数据库实例的自定义策略,然后同时将DDS FullAccess和拒绝策略授予用户,根据Deny优先原则,则用户可以对DDS执行除了删除文档数据库实例外的所有操作。拒绝策略示例如下: { "Version": "1.1", "Statement": [ { "Effect": "Deny" "Action": [ "dds:instance:deleteInstance" ], } ] } 示例3:多个授权项策略 一个自定义策略中可以包含多个授权项,且除了可以包含本服务的授权项外,还可以包含其他服务的授权项,可以包含的其他服务必须跟本服务同属性,即都是项目级服务或都是全局级服务。多个授权语句策略描述如下: { "Version": "1.1", "Statement": [ { "Action": [ "dds:instance:create", "dds:instance:modify", "dds:instance:deleteInstance", "vpc:publicIps:list", "vpc:publicIps:update" ], "Effect": "Allow" } ] } 实例4:授权资源策略 一个自定义策略可以设置资源策略,表示在当前的action下面,拥有哪些资源的操作权限,目前支持实例名称的配置,可以用来表示通配符。授权资源策略的描述如下: { "Version": "1.1", "Statement": [ { "Effect": "Allow", "Action": [ "dds:instance:list" ] }, { "Effect": "Allow", "Action": [ "dds:instance:modify" ], "Resource": [ "DDS:::instanceName:dds" ] } ] }
        来自:
        帮助文档
        文档数据库服务
        用户指南
        权限管理
        DDS自定义策略
      • 产品类
        本章节为您解决数据安全专区产品相关的问题。 数据安全专区支持哪些计费方式? 目前数据安全专区的产品套餐(包括数据分类分级、数据脱敏与水印)为包周期,包年8.33折,服务套餐(数据分类分级服务、数据安全咨询规划服务)为一次性计收计费,注意不支持退订。 数据安全专区是否支持试用? 产品套餐(包括数据分类分级、数据脱敏与水印)支持试用730天,服务套餐(数据分类分级服务、数据安全咨询规划服务)不支持试用。 购买数据安全产品是否还要额外购买云主机、弹性IP? 数据分类分级、数据脱敏与水印不需要额外购买云主机和弹性IP,开通成功后点击管理即可使用产品。 数据脱敏可以应用于哪些场景? 数据共享交换:灵活策略 为了确保数据安全,数据提供方需要按照需求方的实际用途对数据进行脱敏处理并添加水印信息。在数据开放时,提供方需要筛选出可开放字段,对不可开放字段进行脱敏处理。可通过数据脱敏与水印系统基于用户业务情况制定不同的脱敏策略,灵活遮蔽、清洗各类敏感数据。 开发测试环境:规避风险 在业务系统开发测试过程中,为确保数据质量存在直接引用生产数据的情况。可通过数据脱敏与水印系统一致性脱敏算法,将生产数据经过脱敏处理后导入开发测试环境,在保证数据的“真实性”的同时规避生产数据泄漏的风险。 共享数据泄漏:溯源追责 当数据被共享给第三方后,第三方有责任对数据进行有效保护。可通过数据脱敏与水印系统将三方单位信息、共享时间等信息以数据水印的方式嵌入到共享数据中。一旦发生数据泄漏,用户只需提供少量的泄漏数据样本就可以通过嵌入的水印信息溯源泄漏源头,明确责任方并采取相应的追责措施。 数据分析计算:隐私保护 数据脱敏与水印系统支持保留计算特征的脱敏方式,在剔除数据敏感性的同时最大程度保留AI建模相关数据的可用性。可通过数据脱敏与水印系统对个人识别信息进行脱敏处理,可完成数据去标识化且不影响统计分析结果,确保个人隐私安全。
        来自:
        帮助文档
        数据安全专区
        常见问题
        产品类
      • 发票信息
        本文主要介绍了发票信息的常见问题。 天翼云科技有限公司的开票信息? 纳税人名称:天翼云科技有限公司 统一社会信用代码(纳税人识别号):91110101MA04CBKC17 地址及电话:北京市东城区青龙胡同甲1号、3号2幢2层20532室 01058507865 开户银行及账号:交通银行股份有限公司北京市分行营业部 110060149013001879960 代理商、签约方、收款方、和开票方,是不是都是天翼云科技有限公司? 均为天翼云科技有限公司。 发票类型有哪些? 增值税普通发票、增值税专用发票。 发票的税率是多少? 发票的税率均为6%。 发票没收款人和复核人如何填写? 电子发票为统一模板,收款人和复核人不是强制项。
        来自:
        帮助文档
        费用中心
        常见问题
        发票管理
        发票信息
      • CCE容器存储(everest)
        本文主要介绍CCE容器存储(everest)插件。 插件简介 CCE容器存储(everest)是一个云原生容器存储系统,基于CSI(即Container Storage Interface)为Kubernetes v1.15.6及以上版本集群对接云存储服务的能力。 该插件为系统资源插件,kubernetes 1.15及以上版本的集群在创建时默认安装。 约束与限制 集群版本由v1.13升级到v1.15后,v1.13版本集群中的Flexvolume容器存储插件(storagedriver)能力将由v1.15的CSI插件(Everest,插件版本v1.1.6及以上)接管,接管后原有功能保持不变。 插件版本为1.2.0的Everest优化了使用OBS存储时的 密钥认证功能 ,低于该版本的Everest插件在升级完成后,需要重启集群中使用OBS存储的全部工作负载,否则工作负载使用存储的能力将受影响! v1.15及以上版本的集群默认安装本插件,v1.13及以下版本集群创建时默认安装storagedriver插件。 安装插件 本插件为系统默认安装,若因特殊情况卸载后,可参照如下步骤重新安装。 步骤 1 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”,在右侧找到 everest ,单击“安装”。 步骤 2 该插件可配置“单实例”、“高可用”或自定义规格。 Everest插件包含以下容器,您可根据需求自定义调整规格: everestcsicontroller:由Deployment形式部署,Pod中含有一个everestcsicontroller容器,此容器负责存储卷的创建、删除、快照、扩容、attach/detach等功能。若集群版本大于等于1.19,everestcsidriver组件的Pod还会默认带有一个everestlocalvolumemanager容器,此容器负责管理节点上的lvm存储池及localpv的创建。 说明 选择自定义规格时,everestcsicontroller内存配置推荐如下。 Pod和PVC的数量均小于2000时,everestcsicontroller的内存上限推荐配置为600Mi。 Pod和PVC的数量均小于5000时,everestcsicontroller的内存上限推荐配置为1Gi。 everestcsidriver:由DaemonSet形式部署,Pod中含有一个基本容器everestcsidriver容器,负责PV的挂载、卸载、文件系统resize等功能。若集群所在区域支持nodeattacher,everestcsidriver组件的Pod还会带有一个everestnodeattacher的容器,此容器负责分布式attach EVS,该配置项在部分Region开放。 说明 选择自定义规格时,everestcsidriver内存限制推荐配置不低于300Mi。若该值太小可能导致插件实例容器启动异常,从而导致插件不可用的情况。 步骤 3 参数配置。 everest 1.2.26以上版本针对大批量挂EVS卷的性能做了优化,提供了如下3个参数供用户配置。 csiattacherworkerthreads:everest插件中同时处理挂EVS卷的worker数,默认值为“60”。 csiattacherdetachworkerthreads:everest插件中同时处理卸载EVS卷的worker数,默认值均为“60”。 volumeattachingflowctrl:everest插件在1分钟内可以挂载EVS卷的最大数量,此参数的默认值“0”表示everest插件不做挂卷限制,此时挂卷性能由底层存储资源决定。 上述三个参数由于存在关联性且与集群所在局点的底层存储资源限制有关,当您对大批量挂卷的性能有要求(大于500EVS卷/分钟)时,请联系后台工程师,在指导下进行配置,否则可能会因为参数配置不合理导致出现everest插件运行不正常的情况。 步骤 4 单击“安装”。 版本记录 CCE插件版本记录 插件版本 支持的集群版本 :: 1.3.28 /v1.(192123)./ 1.3.22 /v1.(192123)./ 1.3.20 /v1.(192123)./ 1.3.17 /v1.(192123)./ 1.3.8 /v1.23./ 1.3.6 /v1.23./ 1.2.55 /v1.(15171921)./ 1.2.53 /v1.(15171921)./ 1.2.51 /v1.(15171921)./ 1.2.44 /v1.(15171921)./ 1.2.42 /v1.(15171921)./ 1.2.30 /v1.(15171921)./ 1.2.28 /v1.(15171921)./ 1.2.27 /v1.(15171921)./ 1.2.13 /v1.(151719)./ 1.2.9 /v1.(151719)./ 1.2.5 /v1.(151719)./ 1.1.12 /v1.(1517)./ 1.1.11 /v1.(1517)./ 1.1.8 /v1.(1517)./ 1.1.7 /v1.(1517)./
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        CCE容器存储(everest)
      • 【变更】2025年6月27日起数据管理服务DMS审计日志存储策略调整
        概要 因产品发展需要,数据库管理服务DMS将于2025年6月27日起,将数据库审计(SQL审计)功能中的日志保存时间修改为默认1天,最长可选配3天。 影响 数据库管理服务DMS将于2025年6月27日起,将数据库审计(SQL审计)功能中的日志保存时间修改为默认1天,最长可选配3天。 对于已开启DMS数据库审计(SQL审计)的数据库实例,本次策略调整不会影响到您的当前设定。 若您需要在DMS数据库审计(SQL审计)中,设定更长的保存时长,请联系客户经理评估。 感谢您对数据管理服务DMS本次策略调整的理解和支持。
        来自:
        帮助文档
        数据管理服务
        产品公告
        【变更】2025年6月27日起数据管理服务DMS审计日志存储策略调整
      • 术语解释
        域名注册者类型 根据域名注册者的类型,域名可以分为个人域名(由个人注册的域名)和企业域名(由公司或组织注册的域名)等。 CSR CSR代表证书签名请求(Certificate Signing Request),它是一种加密通信协议,用于在申请数字证书时向证书颁发机构(CA)提供必要的信息 , 包括证书CN通用名称等信息。 公钥&私钥 公钥(Public Key) 公钥是密钥对中的一部分,用于加密数据和验证数字签名。公钥可以公开共享,用于加密传输的数据。在 SSL 证书中,公钥用于加密客户端与服务器之间的通信。 私钥(Private Key) 私钥是密钥对中的另一部分,与公钥配对使用。私钥应该保密存储,只有服务器拥有者可以访问。私钥用于解密被公钥加密的数据,以及生成和验证数字签名。 公钥与私钥是通过加密算法得到的一个密钥对(即一个公钥和一个私钥,也就是非对称加密方式)。公钥可对会话进行加密、验证数字签名,只有使用对应的私钥才能解密会话数据,从而保证数据传输的安全性。公钥是密钥对外公开的部分,私钥则是非公开的部分,由用户自行保管。 通过加密算法得到的密钥对可以保证在世界范围内是唯一的。使用密钥对的时候,如果用其中一个密钥加密一段数据,只能使用密钥对中的另一个密钥才能解密数据。例如:用公钥加密的数据必须用对应的私钥才能解密;如果用私钥进行加密也必须使用对应的公钥才能解密,否则将无法成功解密。
        来自:
        帮助文档
        证书管理服务
        产品介绍
        术语解释
      • 数据库审计查看
        本页介绍RDSPostgreSQL数据库审计功能。 应用场景 您可以通过RDSPostgreSQL的数据库审计功能查看SQL明细,定期审计SQL。 注意 开通审计功能后,实例性能有所损耗。 审计功能需要内核版本为12.20P2、13.16P2、14.13P2、15.8P2、16.4及其以上的版本。 审计功能需要安装插件pgaudit、pgauditlogtofile到默认数据库postgres下,插件安装参考 数据库审计默认保存时间为1天,最长保存3天。 数据库审计默认关闭。 开启数据审计后,会有510分钟的延迟才可以看到审计日志。 清理过期日志频率为1天一次。 查询开始时间和查询结束时间间隔不能大于30天。 若开通实例时选择的备份空间为对象存储,则支持将审计文件存储到对象存储上,保留时间为1180天;审计文件也支持下载(注意:审计文件存储的对象存储和备份数据的是同一个对象存储,若空间紧张,请减少审计文件的保留时间)。 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见 操作步骤 1. 登录天翼云官网。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击实例名称进入实例管理详情页。 6. 点击“数据库审计”,进入到审计日志页面,可以查看实例的审计日志。 7. 可以根据时间、数据库名称、执行语句账号、SQL关键字进行筛选。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据安全
        数据库审计
        数据库审计查看
      • CCE容器集群拉取本地私有仓库镜像权限不足
        本文介绍CCE容器集群拉取本地私有仓库镜像权限不足问题。 问题背景 用户自己搭建了一套harbor镜像仓库,并购买了天翼云的容器引擎产品。用户需要cce集群能够使用用户本地搭建的harbor镜像仓库中的镜像。 操作前提 保证该harbor仓库所在网络与cce容器引擎集群的网络是联通的 解决方案 准备好仓库的ca.crt文件 在初期进行harbor私有仓库搭建的时候,为了保证对于harbor的安全使用,对harbor的https访问进行配置,为了能够使cce集群拉取harbor的镜像,我们需要搭建harbor仓库时所使用的CA证书。证书通常存放在Harbor主机上的docker 证书目录:/etc/docker/certs.d/harbor域名/中,在/etc/docker/certs.d/harbor域名/ 中存放着我们所需要的文件:ca.crt 在cce集群上创建存放证书的文件夹 执行以下命令,创建文件夹,用于存放证书文件: mkdir p /etc/docker/certs.d/harbor域名/ 拷贝证书文件到指定文件夹 登陆本地harbor主机,将CA文件拷贝到集群主机指定文件夹下,执行以下命令: scp r /etc/docker/certs.d/harbor域名/ca.crt root@集群主机IP:/etc/docker/certs.d/harbor域名/ 验证 登陆集群节点,再集群节点上进行操作。 方法一:重新部署相关服务,验证是否能够正常拉取镜像。 方法二:通过登陆harbor仓库,执行拉取镜像操作: docker login harbor域名 docker pull 仓库名/镜像名:镜像tag
        来自:
        帮助文档
        云容器引擎(旧版)
        常见问题
        其他问题
        CCE容器集群拉取本地私有仓库镜像权限不足
      • VPN连接状态显示“未连接”
        本文向您介绍企业版VPN如何排查连接状态显示“未连接”的问题。 故障现象 在“虚拟专用网络 >企业版VPN连接”页面,VPN连接状态显示为“未连接”。 可能原因 VPN连接两端的连接配置不正确。 安全组和客户设备侧ACL配置不正确。 处理步骤 检查VPN连接两端的连接配置 确认两端配置的网关IP参数是否为镜像。 VPN网关的主/备EIP可以选择“虚拟专用网络 > 企业版VPN网关”,在网关IP栏下查看。 客户设备侧网关的公网IP可以选择“虚拟专用网络 > 企业版对端网关”,在网关IP栏下查看。 确认IKE策略、IPsec策略协商参数是否一致。 IKE策略、IPsec策略协商参数可以选择“虚拟专用网络 > 企业版VPN连接”,单击“修改策略配置”查看。 确认预共享密钥是否一致。 预共享密钥无法在云上直接查看。如果不确认预共享密钥,建议根据客户设备侧的预共享密钥对VPN连接的预共享密钥进行重置。 可以选择“虚拟专用网络 > 企业版VPN连接”,选择“更多 > 重置密钥”进行重置。 如果连接模式采用策略模式,请确认两端策略规则中的源网段和目的网段是否为镜像。 策略规则可以选择“虚拟专用网络 > 企业版VPN连接”,单击“修改连接信息”查看。 如果连接模式采用静态路由模式且云侧开启了NQA功能,请确认客户设备侧是否已经正确配置Tunnel隧道的IP地址。 是否开启NQA功能,可以选择“虚拟专用网络 > 企业版VPN连接”,单击VPN连接名称,在“基本信息”页签查看“检测机制”。 客户设备侧在VPN连接已设置的Tunnel隧道的IP地址,可以选择“虚拟专用网络 > 企业版VPN连接”,单击“修改连接信息”,查看本端接口地址和对端接口地址。VPN连接的本端接口地址和对端接口地址需要和客户设备的本端接口地址和对端接口地址互为镜像配置。 如果连接模式采用BGP路由模式,请确认两端的BGP ASN是否为镜像。 VPN网关的BGP ASN可以选择“虚拟专用网络 > 企业版VPN网关”,单击VPN网关名称,在“基本信息”页签查看。 客户设备侧网关的BGP ASN可以选择“虚拟专用网络 > 企业版对端网关”,在BGP ASN栏下查看。 检查安全组和客户设备侧ACL配置 确认default安全组已经放通客户设备侧公网IP的UDP协议端口500和4500。 default安全组查看步骤如下: 1. 选择“虚拟专用网络 > 企业版VPN网关”,单击关联的VPC名称。 2. 单击VPC对应的路由表。 3. 单击路由表的名称。 4. 找到VPN网关主或备EIP的下一跳,单击下一跳名称。 5. 在“关联安全组”页签,检查端口放通情况。 确认客户设备侧安全组已经放通VPN网关主备EIP的UDP协议端口500和4500。
        来自:
        帮助文档
        VPN连接
        故障排查
        VPN连接状态显示“未连接”
      • 日期和时间函数
        unit说明 unit 说明 year 年 quarter 季度 month 月 week 周 day 天 hour 小时 minute 分钟 second 秒 interval说明 interval 说明 year 年 quarter 季度 month 月 week 周 day 天 hour 小时 minute 分钟 second 秒 millisecond 毫秒 microsecond 微秒
        来自:
        帮助文档
        云日志服务
        用户指南
        查询与分析
        SQL统计分析
        SQL函数
        日期和时间函数
      • 应用场景
        防网页篡改 攻击者利用黑客技术,在网站服务器上留下后门或篡改网页内容,造成经济损失或带来负面影响。用户可通过Web应用防火墙配置网页防篡改规则,以实现: 挂马检测 检测恶意攻击者在网站服务器注入的恶意代码,保护网站访问者安全。 页面不被篡改 保护页面内容安全,避免攻击者恶意篡改页面,修改页面信息或在网页上发布不良信息,影响网站品牌形象。 内容安全检测 网站/新媒体内容安全检测 内容合法合规性检测 国家政策要求各地方机构要认真落实意识形态工作和网络内容安全工作责任制。为响应国家政策,内容安全检测服务可对网站/新媒体内容进行合法合规检测,主要对文本、图片、视频、语音进行检测和识别是否包含色情、涉政、暴力、惊悚、不宜广告、垃圾信息、不良内容等,有效帮助您降低内容风险。 内容准确性检测 对网站/主流新媒体平台的内容进行准确性检测,主要对文本、图片、视频、语音进行表述规范审核,如对错别字、生僻字、词法表述、语法表述等内容进行检测审核。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        产品介绍
        应用场景
      • 内网域名解析设置
        本小节介绍SSL VPN的内网域名解析设置。 SSL VPN支持需要通过内部域名才能访问的资源应用。内网存在此类应用时,一般有一台或多台内网DNS服务器,给内网电脑提供内网域名解析服务。通过SSL VPN需要访问此类应用时,可以通过“内网域名解析”配置来实现。 1. 选择“系统设置 > SSL VPN选项 > 系统选项”,选择“内网域名解析”选项卡,在首选DNS和备选DNS处设置客户的内网DNS服务器地址,如下图内网DNS为172.29.12.11和172.29.10.11。 2. 在此页面“内网DNS规则设置”处,将定义资源的域名全部添加在此处,如oa.ctyun.com.cn。 注意 此处添加的规则最多支持100条。 不支持中文域名解析。 添加内网DNS规则后,对应域名的解析请求,会优先走内网DNS解析,未通过VPN发布的域名,请不要在此添加任何规则。
        来自:
        帮助文档
        SSL VPN(文档停止维护)
        用户指南
        内网域名解析设置
      • 纳管已有节点到集群
        操作场景 CCE集群支持两种添加节点的方式: 购买节点和纳管节点,纳管节点是指将“已购买的弹性云主机(ECS)加入到CCE集群中”,所纳管节点的计费模式支持“按需计费”和“包年/包月”两种类型。 本节将指导您通过CCE控制台纳管已有虚拟机节点。 须知: 纳管时,会将所选弹性云主机的操作系统重置为CCE提供的标准镜像,以确保节点的稳定性,请选择操作系统及重置后的登录方式。 所选弹性云主机挂载的系统盘、数据盘都会在纳管时被格式化,请确保信息已备份。 纳管过程中,请勿在弹性云主机控制台对所选虚拟机做任何操作。 约束与限制 目前仅支持在CCE集群中纳管同一Region下的虚拟机节点(含GPU加速型)。 集群版本需V1.13及以上。 集群开启IPv6后,只支持纳管所在的子网开启了IPv6功能的节点;集群未开启IPv6,只支持纳管所在的子网未开启IPv6功能的节点。 原虚拟机节点创建时若已设置密码或密钥,需等待虚拟机节点可用10分钟后方可纳管。 前提条件 支持纳管符合如下条件的弹性云主机: 待纳管节点已购买成功,且必须状态为“运行中“,且未被其他集群所使用。 纳管节点需与CCE集群在同一虚拟私有云内(若集群版本低于1.13.10,纳管节点还需要与CCE集群在同一子网内)。 需挂载数据盘,数据盘需满足有且仅有1块,且容量不少于100GB,多余的数据盘请先卸载。 节点规格要求:CPU必须2核及以上,内存必须4GB及以上,网卡有且仅能有一个。 操作步骤 步骤 1 登录CCE控制台,单击左侧导航栏的“资源管理 > 集群管理”,单击待纳管集群下的“更多 > 纳管节点”。 步骤 2 (可选)登录CCE控制台,单击左侧导航栏的“资源管理 > 节点管理”,选择节点所在的集群后,单击页面右上角的“纳管节点”。 步骤 3 在打开的界面中展示了当前符合要求的弹性云主机。如果不符合纳管要求时会显示相应的红色提示图标,列表下方会有被过滤的弹性云主机数量,鼠标移动到后方的 可以查看具体原因。 步骤 4 勾选需要纳管的弹性云主机,单击“下一步”。 步骤 5 在“待纳管节点”页面中,按照界面提示选择“登录方式”,单击“高级配置”后的按钮,可以设置“最大实例数”、“自定义镜像仓库”和“资源分配”,然后单击“提交”。 步骤 6 在弹出的“信息确认”页面中确认信息无误后,单击“确定”。 系统将提示节点纳管请求提交成功。 移除节点 移除节点指从集群中移除“弹性云主机(简称ECS)”,并不会删除ECS和卸载已安装的CCE相关组件。 如需清理CCE相关组件,请前往ECS控制台将机器关机后,点击“更多 > 镜像/磁盘 > 重装系统”操作。 步骤 1 在CCE控制台中,选择导航栏的“资源管理 > 节点管理”,在节点列表中,单击待移除节点后方“操作”栏中的“更多 > 移除”。 步骤 2 在弹出的“移除纳管节点”弹框中,输入REMOVE,确认移除该节点,单击“确定”,即可移除纳管的节点。 说明:以上步骤仅从集群中移除了节点(即弹性云主机ECS),并不会删除节点和已安装的CCE相关组件。请根据界面中展示的步骤清理CCE相关资源。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点管理
        纳管已有节点到集群
      • 通用类
        多台弹性云主机是否可以使用同一个RDS数据库 在数据库的压力承载范围内,多台弹性云主机是可以使用同一个关系型数据库来支撑业务的。 MySQL开启GTID后有哪些限制 MySQL默认开启GTID且不支持关闭,主备关系的建立等功能均依赖GTID。如果关闭GTID,会对整个RDS的功能(比如备份恢复、主备倒换)受到影响甚至无法运行。 社区版MySQL开启GTID后,如下三种语句执行会报错: 使用select语句建表(create table...select)会报错。 如果在一个事务中同时处理支持事务的引擎(InnoDB)和不支持事务的引擎(MyISAM)会报错。 显式事务中创建临时表(create temporary table)会报错。 为了放开社区版的这些约束,云数据库RDS对MySQL内核进行了改造,以支持这些语句。 不同RDS实例的CPU和内存是否共享 CPU和内存指的是购买的实例规格,并且服务器是独立的,不会出现不同RDS共用资源的情况。 RDS实例内能运行多少个数据库 关系型数据库服务没有强制限制在一个RDS实例内能运行多少个数据库,这取决于数据库引擎自身设置。 如果CPU、内存和磁盘大小均满足的情况下,实例允许数据库数量没有限制。数据库中表的数量会影响备份速度。表数量超过50万,备份将会失败。 RDS for MySQL创建的数据库、表数量没有限制。这取决于MySQL自身,详情请查看MySQL官方文档。 RDS for PostgreSQL可创建无限个数据库、无限个数据库帐号。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        通用类
      • 账户组
        删除帐户组 云堡垒机新建帐户组后,支持删除帐户组。删除帐户组后,通过帐户组授权的资源权限将失效。 前提条件 已获取“资源账户”模块操作权限。 删除帐户组 1 登录云堡垒机系统。 2 选择“资源 > 帐户组”,进入帐户组列表页面。 3 单击帐户组“操作”列的“删除”,即可删除该帐户组。 4 同时勾选多个帐户组,单击列表下方的“删除”,可批量删除多个帐户组。 查询和修改帐户组信息 若帐户组信息有变更需求,可查看和修改帐户组信息,包括查看帐户组基本信息、查看帐户组成员、修改帐户组基本信息、添加成员、移除组成员等。 约束限制 下级部门拥有“资源账户”模块管理权限的用户,查看帐户组详情时,只能查看到帐户组内上级部门资源账户列表,不能查看上级部门资源账户的详情信息。 下级部门拥有“资源账户”模块管理权限的用户,将当前帐户组中的上级部门资源账户移除后,不能再添加移除的上级部门资源账户。 前提条件 已获取“资源账户”模块操作权限。 操作步骤 1 登录云堡垒机系统。 2 选择“资源 > 帐户组”,进入帐户组列表页面。 3 查询帐户组。在搜索框中输入关键字,根据帐户组名称快速查询。 4 单击帐户组名称,或者单击“管理”,进入帐户组详情页面。 5 在“基本信息”区域,可查看帐户组基本信息。 单击“编辑”,弹出基本信息配置窗口,即可修改帐户组名称和简要描述。 6 在“帐户组成员”区域,可查看帐户组所有成员信息。 单击“添加”,弹出资源账户添加窗口,可添加或移除资源账户。 单击资源账户行的“移除出组”,可立即将资源账户移除出组。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统资源
        账户组
      • 迁移或同步失败
        本章介绍主机迁移服务迁移或同步失败常见问题。 迁移中源端有新增的数据如何处理? 启动目的端后,若源端有新增的数据,单击此服务器所在行的操作列的“同步”,开始下一次复制(增量数据),当迁移状态为“持续同步”时,单击“启动目的端”,迁移实时状态为“已完成”时,说明新增数据已同步到目的端。 “迁移模块异常中止,无法同步”怎么处理? 问题描述 持续同步过程中出现“SMS.1414 迁移模块异常中止,无法同步”。 问题原因 迁移模块异常终止可能是因为用户手动重启过Agent或者源端服务器被重启过。 源端有一个监控磁盘变化的进程,用于将源端变化的部分同步到目的端。重启之后该进程被终止,会导致无法正确的将源端服务器的变化同步到目的端。 解决方案 该场景下无法继续完成迁移任务,请删除该任务后,重新迁移。请注意迁移过程中不要重启源端服务器或Agent。 Windows迁移过程中,源端SMSAgent突然退出,导致与主机迁移控制台断开连接 问题描述 Windows服务器迁移过程中,源端突然与SMS控制台断开连接,查看源端发现是迁移用的SMSAgent程序退出。 问题分析 出现该问题,可能是因为源端服务器“客户体验改善计划”导致SMSAgent程序退出。 1. 查看SMSAgent迁移日志中断时间。(C:SMSAgentPy3SmsAgentInfo.log) 2. 在源端服务器,打开计算机管理。选择“事件查看器>Windows 日志>系统”。 3. 在系统日志中,查看与SMSAgent迁移日志中断时间对应的系统日志。发现是因为一条客户体验改善计划的用户登录通知,导致源端服务器自动重启。 解决方案 关闭“客户体验改善计划”。 1. 在源端服务器,打开运行窗口,输入:gpedit.msc,单击“确定”,打开“组编辑策略器”。 2. 在导航栏,选择“计算机配置>管理模板>系统>Internet通信管理>Internet 通信设置”,找到“关闭Windows 客户体验改善计划”。 3. 双击“关闭Windows 客户体验改善计划”,打开编辑窗口,选择“已启用”,单击“确定”。 4. 打开计算机管理,选择“系统工具>任务计划程序库>Microsoft>Windows>Customer Experience Improvement Program”,禁用所有任务。 5. 选择“系统工具>任务计划程序库>Microsoft>Windows>Application Experience”,禁用所有任务。 6. 禁用客户体验改善计划相关任务后,需要在SMS控制台删除迁移任务,重新创建并启动迁移任务。
        来自:
        帮助文档
        主机迁移服务SMS
        常见问题
        迁移或同步失败
      • 登录
        本小节介绍服务器安全卫士的控制台登录方法。 登录步骤 登录云平台后, 进入控制中心“服务器安全卫士”,点击订单对应的“控制台”按钮,可登录服务器安全卫士控制台。
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        快速入门
        登录
      • 登录
        本小节介绍服务器安全卫士的控制台登录方法。 登录步骤 登录云平台后, 进入控制中心“服务器安全卫士”,点击订单对应的“控制台”按钮,可登录服务器安全卫士控制台。
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        快速入门
        登录
      • 网络及安全
        本节主要介绍网络及安全问题 数据复制服务有哪些安全保障措施 网络 使用安全组确保访问源为可信的。 使用SSL通道,确保数据传输加密。 如何处理迁移过程中出现的网络中断 迁移过程中如果出现网络中断,可先观察任务状态,当如下状态的迁移任务出现失败时,可在任务列表上单击“续传”,进行任务续传。 全量迁移 增量迁移 如何通过设置VPC安全组,允许本云VPC访问外部弹性IP 默认情况下,基于安全的考虑,本云VPC与外部网络是隔离的,VPC内是无法访问外部的弹性IP,如其他云数据库的弹性IP、云下数据库的弹性IP等。但数据库迁移场景需要确保本云VPC内的迁移实例或者目标数据库可连通外部的弹性IP,从而实现数据库迁移。 为此,您需要在安全组里设置一个出口规则,出口规则控制的是本云VPC可以访问哪些外部的弹性IP和端口范围,安全组的出入口规则一般需要满足“严进宽出”的要求。 如何处理迁移实例和数据库网络连接异常 数据迁移前请确保完成网络准备和安全规则设置。如果连接异常,请按照本节方法排查网络配置是否正确。 本节将以MySQL到RDS for MySQL的迁移为示例,从三种迁移场景(跨云数据库实时迁移、本地数据库实时迁移、ECS自建数据库实时迁移)进行说明。 跨云数据库实时迁移 1. 网络准备。 源数据库需要开放公网访问。 源数据库的网络设置: 源数据库MySQL实例需要开放外网域名的访问。 具体的操作及注意事项可以参考源数据库所在云提供的相关指导。 目标数据库的网络设置: 目标数据库默认与DRS迁移实例处在同一个VPC内,网络是互通的,不需要进行任何设置。 2. 安全规则准备。 源数据库的安全规则设置: 源数据库MySQL实例需要将目标端DRS迁移实例的弹性公网IP添加到其网络白名单中,确保源数据库MySQL实例可以与上述弹性公网IP连通。 在设置网络白名单之前,需要先获取目标端DRS迁移实例的弹性公网IP,具体方法如下:DRS迁移实例创建成功后,可在“源库及目标库”页面获取DRS迁移实例的弹性公网IP。 以上讲述的是精细配置白名单的方法,还有一种简单设置白名单的方法, 在安全允许的情况下 ,可以将源数据库MySQL实例的网络白名单设置为0.0.0.0/0,代表允许任何IP地址访问该实例。 上述的网络白名单是为了进行数据迁移设置的,迁移结束后可以删除。 目标数据库安全规则设置: 目标数据库默认与DRS迁移实例处在同一个VPC,网络是互通的,DRS可以直接写入数据到目标数据库,不需要进行任何设置。 本地数据库实时迁移 3. 网络准备: 源数据库的网络设置: 本地MySQL数据库实时迁移至本云云数据库 RDS for MySQL的场景,一般可以使用VPN网络和公网网络两种方式进行迁移,您可以根据实际情况为本地MySQL数据库开放公网访问或建立VPN访问。一般推荐使用公网网络进行迁移,该方式下的数据迁移过程较为方便和经济。 目标数据库的网络设置 : 若通过VPN访问,请先开通VPN服务,确保源数据库MySQL和目标端本云云数据库 RDS for MySQL的网络互通。 若通过公网网络访问,本云云数据库 RDS for MySQL实例不需要进行任何设置。 4. 安全规则准备: a. 源数据库的安全规则设置: 若通过公网网络进行迁移,源数据库MySQL需要将DRS迁移实例的弹性公网IP添加到其网络白名单内,使源数据库与本云的网络互通。在设置网络白名单之前,需要获取DRS迁移实例的弹性公网IP,具体方法如下: DRS迁移实例创建成功后,可在“源库及目标库”页面获取DRS迁移实例的弹性公网IP。 若通过VPN网络进行迁移,源数据库MySQL需要将DRS迁移实例的私有IP添加到其网络白名单内,使源数据库与本云的网络互通。DRS迁移实例创建成功后,可在“源库及目标库”页面获取DRS迁移实例的私有IP。 以上白名单是为了进行迁移针对性设置的,迁移结束后可以删除。 b. 目标数据库安全规则设置: 目标数据库默认与DRS迁移实例处在同一个VPC,网络是互通的,DRS可以直接写入数据到目标数据库,不需要进行任何设置。 ECS自建数据库实时迁移 5. 网络准备: 源数据库所在的region要和目标端本云云数据库 RDS for MySQL实例所在的region保持一致。 源数据库可以与目标端本云云数据库 RDS for MySQL实例在同一个VPC,也可以不在同一个VPC。 当源库和目标库处于同一个VPC时,网络默认是互通的。 当不在同一个VPC的时候,要求源数据库实例和目标端本云云数据库 RDS for MySQL实例所处的子网处于不同网段,此时需要通过建立对等连接实现网络互通。 6. 安全规则准备: 同一VPC场景下,默认网络是连通的,不需要单独设置安全组。 不同VPC场景下,通过建立对等连接就可以实现网络互通,不需要单独设置安全组。 排查iptables设置 以源数据库为本云ECS自建数据库为例,如果在上述的操作后,仍无法连通,此时需要额外排查iptables设置,因为HOSTGUARD服务在DRS发起频繁连接请求失败时,会将请求IP加入黑名单中。 7. 登录弹性云主机。 8. 执行以下命令,排查是否有DENY相关的项目包含DRS实例的IP,一般项目名称为INHIDSMYSQLDDENYDROP 。 iptables list 9. 如果存在,执行以下命令,查询iptables入方向规则列表,获取具体规则编号(linenumbers)。 iptables L INPUT linenumbers 10. 执行以下命令,删除DRS实例的IP相关的入方向规则(注意:必须从后往前删,不然linenumbers会更新,需要重新查询)。 iptables D 规则项目名 具体规则编号 11. 删除相关iptables规则后重新进行测试连接即可。
        来自:
        帮助文档
        数据库复制
        常见问题
        网络及安全
      • 产品使用限制
        本文介绍流量镜像产品的使用限制。 为保证流量镜像产品正常使用,在使用之前,请您务必仔细阅读以下使用限制。 配额限制 资源 默认配额 提升配额 单帐号单资源池可创建的筛选条件的数量 10 提交工单 单帐号单资源池可创建的镜像会话的数量 10 提交工单 单个筛选条件支持的入向筛选规则的数量 10 提交工单 单个筛选条件支持的出向筛选规则的数量 10 提交工单 单个镜像会话支持加入的镜像源的数量 部分资源池支持10个; 部分资源池支持1个; (具体以控制台为准) 提交工单 单个镜像会话支持加入的镜像目的数量 1 无法提升 单个筛选条件支持关联的镜像会话数 10 提交工单 同一个镜像目的资源支持关联的镜像会话数 当镜像目的为弹性网卡时,默认配额为10; 无法提升 使用限制 账户与地域 一个会话的源和目的必须归属同一个租户的同一个区域(Region)。 在同账号同地域下,镜像源和镜像目的可以配置在同一个VPC内,也可以跨VPC配置。 镜像源和镜像目的 一个网卡不能既作镜像源又作镜像目的。 一个镜像源的报文只能被镜像一次,且只能发送给一个镜像目的。 流量镜像的报文采用标准的VXLAN报文格式封装,当被镜像的报文长度加上VXLAN报文长度大于镜像源实例的MTU值时,可能导致镜像报文被丢弃。为了防止报文被丢弃,建议您在IPv4场景下,设置弹性网卡的MTU值比链路支持的MTU值至少小50字节。 镜像目的收到的被镜像的报文长度受限于链路最小MTU值,请保证镜像报文长度不超过链路MTU长度(一般默认1500)。 镜像源支持云主机绑定的弹性网卡,部分规格弹性裸金属绑定的弹性网卡(弹性裸金属网卡目前属于内测阶段,如有需求,请提工单申请,支持的规格为:physical.s5se.) 镜像目的支持云主机绑定的弹性网卡,部分规格弹性裸金属绑定的弹性网卡、性能保障型负载均衡(性能保障型负载均衡及弹性裸金属网卡目前属于内测阶段,如有需求,请提工单申请,支持的弹性裸金属规格为:physical.s5se.)
        来自:
        帮助文档
        虚拟私有云 VPC
        流量镜像
        产品使用限制
      • 产品优势
        本页为您介绍翼云快销的产品优势。 翼云快销是通过制作H5活动帮客户快速吸粉引流,进行互动营销: 天翼云快销H5活动可紧密结合中西传统节日或热点事件时间点,迎合行业营销推广期。 天翼云快销H5活动提供抽奖、助力、小游戏、邀请函等多种模板类型一键生成活动互动引流。 天翼云快销H5活动以手机、微信等移动端社交工具/媒体为载体,带动分支机构营销人员灵活开展线上下营销活动,打破传统单一营销方式。 天翼云快销H5活动无需开发,在电脑端轻松设置即可上线,适合企业各类营销互动场景,帮助以服务营销为核心的商业客户快速营销。
        来自:
        帮助文档
        翼云快销
        产品介绍
        产品优势
      • 权限管理
        本文主要介绍权限管理 如果您需要在云上购买的APM资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制APM资源的访问。 通过IAM,您可以在云帐号中给员工创建IAM用户,并使用策略来控制员工对APM资源的访问范围。例如您的员工中有负责软件开发的人员,您希望开发人员拥有APM的使用权限,但是不希望开发的人员拥有删除服务发现规则等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用服务发现规则,但是不允许删除服务发现规则的权限策略,控制服务对服务发现规则资源的使用范围。 如果帐号已经能满足您的使用需求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用APM的其它功能。 IAM是提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。 APM权限 默认情况下,管理员创建的IAM用户没有任何权限,您需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对APM进行操作。 APM是全局级服务,在授予用户APM权限时,默认对APM支持的所有区域生效。APM资源是租户隔离的,当前租户下所有子用户共享资源,如果需要隔离资源,可以通过企业项目实现。 APM部署时不区分物理区域,为全局级服务。授权时,在“企业 > 项目管理”中设置权限,访问APM时,不需要切换区域。 如表所示,包括了APM的所有系统权限。 表 APM系统权限 角色名称 描述 类别 APM FullAccess 应用性能管理服务的所有执行权限。 系统策略 APM ReadOnlyAccess 应用性能管理服务的只读权限。 系统策略 下表列出了APM常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表 常用操作与系统权限的关系 操作 APM FullAccess APM ReadOnlyAccess 获取告警列表 √ √ 获取告警详情 √ √ 获取告警通知详情 √ √ 获取应用配置 √ √ 创建应用配置 √ x 删除应用配置 √ x 修改应用配置 √ x 获取标签 √ √ 新增标签 √ x 删除标签 √ x 修改标签 √ x 查询告警模板 √ √ 添加告警模板 √ x 删除告警模板 √ x 修改告警模板 √ x 获取通知 √ √ 删除通知 √ x 添加通知 √ x 修改通知 √ x 获取URL跟踪 √ √ 删除URL跟踪 √ x 添加URL跟踪 √ x 修改URL跟踪 √ x 获取URL跟踪视图 √ √ 获取URL跟踪列表 √ √ 获取全局拓扑 √ √ 获取子应用 √ √ 获取环境配置 √ √ 添加环境配置 √ x 删除环境配置 √ x 修改环境配置 √ x 获取实例 √ √ 删除实例 √ x 修改实例 √ x 获取监控项 √ √ 修改监控项 √ x 获取采集状态 √ √ 获取自定义告警策略 √ √ 删除自定义告警策略 √ x 修改自定义告警策略 √ x 添加自定义告警策略 √ x 获取环境拓扑 √ √ 获取指标视图 √ √ 获取调用链列表 √ √ 获取调用链详情 √ √ 获取采集器信息 √ √ 获取访问密钥 √ √ 修改访问密钥 √ x 删除访问密钥 √ x 添加访问密钥 √ x 获取通用配置 √ √ 修改通用配置 √ x
        来自:
        帮助文档
        应用性能管理
        产品介绍
        权限管理
      • 1
      • ...
      • 279
      • 280
      • 281
      • 282
      • 283
      • ...
      • 657
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务 MDR

      轻量型云主机

      天翼云CTyunOS系统

      训推服务

      AI Store

      一站式智算服务平台

      智算一体机

      人脸属性识别

      身份证识别

      推荐文档

      数据库访问

      创建生产者

      查看业务关键性能指标

      首次备案

      云间高速的优势

      导入数据

      如何提现?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号