活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云翼停车_相关内容
      • 绑定弹性IP
        本文主要介绍如何绑定弹性IP。 操作场景: 将已申请的弹性IP绑定在需要访问互联网或对互联网提供服务的云主机或其他实例上,使云主机或其他云服务实例具备与互联网通信的能力。 操作步骤: 1.在“弹性IP”界面待绑定弹性IP地址所在行,单击“绑定”。 2.选择需要绑定的实例。 3.单击“确定”。
        来自:
        帮助文档
        弹性IP EIP
        用户指南
        弹性公网IP
        绑定弹性IP
      • 弹性云主机常用端口
        本章节向您介绍弹性云主机的常用端口及用途。 添加安全组规则时,需要您指定通信所需的端口或者端口范围,然后安全组根据策略,决定允许或是拒绝相关流量转发至ECS实例。以通过SSH方式远程登录ECS为例,当安全组检测到SSH请求后,会检查发送请求的设备IP地址、登录所需的22端口是否已在安全组入方向中被放行,只有和安全组入方向规则匹配成功,该请求才会被放行,否则无法建立数据通信。 下表中提供了部分运营商判断的高危端口,这些端口默认被屏蔽。即使您已经添加安全组规则放通了这些端口,在受限区域仍然无法访问,此时建议您将端口修改为其他非高危端口。 协议 端口 TCP 42 135 137 138 139 444 445 593 1025 1068 1433 1434 3127 3128 3129 3130 4444 4789 5554 5800 5900 8998 9995 9996 UDP 135~139 1026 1027 1028 1068 1433 1434 4789 5554 9995 9996 常用端口 弹性云主机常用端口如下表所示。您可以通过配置安全组规则放通弹性云主机对应的端口。关于Windows下更多的服务应用端口说明,请您参考微软官方相关文档。 端口 协议 说明 21 FTP FTP服务开放的端口,用于上传和下载文件。 22 SSH SSH端口,用于远程连接Linux弹性云主机。 23 Telnet Telnet端口,用于通过Telnet协议远程登录弹性云主机。 25 SMTP SMTP服务器开放的端口,用于发送邮件。 80 HTTP 使用HTTP协议访问网站。 110 POP3 使用POP3协议接收邮件。 143 IMAP 使用IMAP协议接收邮件。 443 HTTPS 使用HTTPS服务访问网站。 1433 SQL Server SQL Server的TCP端口,用于供SQL Server对外提供服务。 1434 SQL Server SQL Server的UDP端口,用于返回SQL Server使用了哪个TCP/IP端口。 1521 Oracle Oracle通信端口,弹性云主机上部署了Oracle SQL需要放行的端口。 3306 MySQL MySQL数据库对外提供服务的端口。 3389 Windows Server Remote Desktop Services Windows远程桌面服务端口,通过这个端口可以连接Windows弹性云主机。 8080 代理 同80端口一样,8080 端口常用于WWW代理服务,实现网页浏览。如果您使用了8080端口,访问网站或使用代理服务器时,需要在IP地址后面加上:8080 。安装Apache Tomcat服务后,默认服务端口为8080。 137、138、139 NetBIOS NetBIOS协议常被用于Windows文件、打印机共享和Samba。 137、138:UDP端口,通过网上邻居传输文件时使用的端口。 139:通过这个端口进入的连接试图获得NetBIOS/SMB服务。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        安全组
        弹性云主机常用端口
      • Serverless集群使用快速入门
        本文介绍如何使用云容器引擎Serverless版。 本文介绍如何通过控制台创建Serverless集群、使用镜像部署应用以及查看容器信息。 前提条件 已开通并授权云容器引擎。 已登录弹性容器实例控制台开通服务。 操作步骤 创建Serverless集群 1.登录云容器引擎控制台。 2.在控制台的左侧导航栏中点击“集群”。 3.在集群列表页面中,单击页面右上角的“创建集群”,进入订购页后单击“Serverless版”。 4.在订购Serverless容器引擎页面中,完成集群的基本配置。部分配置说明如下: 配置项 描述 实例名称 填写集群的实例名称 企业项目 按需选择企业项目 计费模式 默认使用按需计费模式 Kubernetes版本 显示当前Serverless集群支持的Kubernetes版本 部署方式 支持单可用区部署、多可用区部署 可用区 按需选择可用区 API Server访问 API Server的访问需要依赖ELB实例,您可根据需要选择合适的ELB规格,系统将根据该规格创建一个私网ELB实例。同时,您也可以选择是否使用EIP暴露API Server,选择不开放时,则无法通过外网访问集群API Server 虚拟私有云 集群所使用的VPC,支持使用已有的VPC或创建虚拟私有云 所在子网 集群所使用的子网,支持使用已有的子网或创建子网 默认安全组 安全组是一种虚拟防火墙,能够控制实例的出入站流量,Serverless集群会自动生成一条默认的安全组,以确保容器之间能正常通信 启用IPv6 启用IPv6双栈将创建双栈Serverless集群 Service CIDR 设置Service CIDR。Service网段不能与VPC及VPC内已有集群使用的网段重复,并且Service地址段也不能和Pod地址段重复。集群创建成功后不能再修改该网段 自定义证书SAN 按需添加自定义的IP或域名,以实现对客户端的访问控制 集群本地域名 填写集群的本地域名 集群删除保护 设置是否启用集群删除保护,防止通过控制台或者API误删除集群 集群标签 为集群绑定标签,作为云资源的标识 集群描述 按需对集群进行描述说明 时区 集群所要使用的时区 5.集群配置完成后,单击“下一步”。 6.按需进行插件配置,配置完成后,单击“确认配置”。 7.确定产品名称、基础配置以及费用无误后提交订单。 8.集群创建成功后,您可以进入云容器引擎控制台,在集群选项卡中可以看到新创建的集群。点击集群名称进入集群详情界面,可以查看集群相关信息。
        来自:
        帮助文档
        云容器引擎 Serverless版
        快速入门
        Serverless集群使用快速入门
      • 主机监控
        CES Agent如何通过授权获取临时AK/SK? 为了更加安全高效的使用云监控服务提供的主机监控功能,我们提供了最新方式的Agent授权方法。在安装主机监控Agent前,仅需要一键式单击该区域的授权按钮或者在创建弹性云主机页面勾选云监控Agent委托,则系统会自动对该区域下所有云主机或物理机安装的Agent做临时AK/SK授权,并且以后在该区域新创建的资源都会自动获得此授权。本节针对本授权做以下说明: 1. 授权对象: 当您在云监控服务管理控制台“主机监控 > 弹性云主机”(或“主机监控 > 物理机”)所示页面单击“一键配置”后,系统会在IAM自动创建名为“cesagency”的委托,该委托自动授权给CES服务的内部账户opsvcces。 2. 授权范围: 仅为所在区域的内部账户“opsvcces”添加“CES Administrator”权限。 3. 授权原因: CES Agent运行在弹性云主机或物理机内,该Agent采集监控数据后需要上报到云监控服务,授权后CES Agent能够自动获取临时AK/SK,这样您就可以安全方便的使用云监控服务管理控制台或API查询Agent监控数据指标了。 a. 安全:Agent使用的AK/SK仅具有CES Administrator权限的临时AK/SK,不会使用客户全局AK/SK,即当前的临时AK/SK只具备操作云监控服务的权限。 b. 方便:您仅需在一个区域配置一次即可,无需对每个CES Agent手动配置。 4. 如果授权后在IAM委托页面无法查询到“cesagency”,您可以手工在IAM管理控制台重新创建。 说明 新创建的委托名称必须为“cesagency”。 委托类型为“普通帐号”,委托的帐号必须为“opsvcces”。
        来自:
        帮助文档
        云监控服务
        常见问题
        主机监控类
        主机监控
      • 网络性能测试的最佳实践
        类型 数量 镜像 规格 被测机(被测机:被压力测试网络性能的弹性云服务器,可作为 iperf3 测试中的 client 端(发送端)) 1台 CTyunOS 23.01(推荐) 4C8G(推荐) 辅助云服务器(作为 iperf3 测试中的 server 端(接收端)) 1台 CTyunOS 23.01(推荐) 4C8G(推荐)
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        网络相关最佳实践
        网络性能测试的最佳实践
      • 资源列表查询:云主机
        参数 参数类型 说明 示例 下级对象 page Integer 页码 1 pageSize Integer 页大小 3 totalPage Integer 总页数 1 currentCount Integer 当前页记录数 2 totalCount Integer 云主机总记录数 30 list Array of Objects 云主机资源列表 ecs
        来自:
        帮助文档
        云监控服务
        API参考
        API
        监控服务
        监控对象
        资源列表查询:云主机
      • 应用场景
        使用场景 电商、视频直播客户、游戏客户:云容器引擎可根据用户的业务需求预设策略自动调整计算资源,使云服务器或容器数量自动随业务负载增长而增加,随业务负载降低而减少,保证业务平稳健康运行,节省成本。
        来自:
        帮助文档
        云容器引擎(旧版)
        产品简介
        应用场景
      • 配置出站路由
        云主机通过云下一代防火墙访问互联网,需要配置源路由进行转发。 操作方法 1.打开菜单栏【网络→路由→源路由】,新建。 2.新建源路由,保障后向业务主机正常访问互联网。
        来自:
        帮助文档
        云下一代防火墙
        用户指南
        配置出站路由
      • 设置安全组
        参数 说明 取值示例 协议 网络协议。支持全部放通、自定义协议、“TCP”、“UDP”、“ICMP”、“SSH”等协议。 TCP 端口 允许远端地址访问弹性云主机或外部设备的指定端口。 8635 源地址和目的地址 支持IP地址和安全组。 IP地址:该安全组规则在指定的IP地址范围生效。 xxx.xxx.xxx.xxx/32(IPv4地址) xxx.xxx.xxx.0/24(子网) 0.0.0.0/0(任意地址) 安全组:该规则授权特定安全组中的弹性云主机访问本安全组中的文档数据库,即该规则放通特定安全组中的弹性云主机所有的IP地址。 192.168.10.0/24 default
        来自:
        帮助文档
        文档数据库服务
        快速入门
        副本集快速入门
        通过内网连接副本集实例
        设置安全组
      • 创建实例
        本文为您介绍分布式消息服务MQTT的快速入门创建实例。 实例介绍 MQTT实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占MQTT实例,可根据业务需要可定制相应规格的MQTT实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 1、在产品详情页点击立即开通按钮,或者进入消息管理控制台创建实例,进入订购分布式消息MQTT页面。 2、 创建实例,注意选择产品规格。 (1)填写实例名称,长度4~40个字符,大小写字母开头,只能包含大小写字母、数字及分隔符()。 (2)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 (3)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、13年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、13年。 计费模式为按需计费,则该选项隐藏无需选择。 (4)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 (5)设置节点数,可选择3/5/7/9。MQTT 的节点数是指MQTT 集群中的节点数量。在MQTT 集群中,可以有多个节点组成一个集群,每个节点都是一个独立的MQTT 服务器实例。 (6)下拉选择主机类型,可选择通用型和计算增强型。通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 (7)选择实例规格,分布式消息服务MQTT提供通用型和计算增强型各3类规格,各规格详细说明参见弹性云主机规格。 (8)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/普通IO/超高IO三类。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 (9)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 (10)选择已有子网,若无子网,点击创建跳转到子网页面新增,了解更多内容参见虚拟私有云子网管理 创建子网。 (11)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增,了解更多内容参见虚拟私有云安全组 创建安全组。 3、 填写完上述信息后,单击“下一步”,进入费用确认页面。 4、 确认实例信息无误后,提交请求。 5、 在实例列表页面,查看MQTT实例是否创建成功。创建实例大约需要3到15分钟,此时实例状态为“创建中”。
        来自:
        帮助文档
        分布式消息服务MQTT
        快速入门
        创建实例
      • OR REPLACE 更新存储介绍
        本页介绍天翼云TeleDB数据库使用[OR REPLACE] 更新存储的语法。 带OR REPLACE的作用,在建立存储过程时若存在则替换,建立存储时不带 OR REPLACE关键字,则遇到函数已经存系统则会报错,如下所示。 plaintext teledb select prosrc from pgproc where proname'proc1'; prosrc begin + raise notice 'Hello teledbpg';+ end; + (1 row) teledb CREATE OR REPLACE PROCEDURE proc1() AS $$ begin raise notice 'Hello,teledbpg'; end; $$ LANGUAGE PLPGSQL; CREATE PROCEDURE teledb select prosrc from pgproc where proname'proc1'; prosrc begin + raise notice 'Hello,teledbpg';+ end; + (1 row) teledb teledb call proc1(); NOTICE: Hello,teledbpg CALL teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        开发手册
        存储过程开发
        存储过程语法介绍
        OR REPLACE 更新存储介绍
      • 修改单个节点上的参数
        本页介绍天翼云TeleDB数据库修改单个节点上参数。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击参数管理。 2. 在数据库参数 页签,在搜索框中输入配置项搜索 需修改的参数,单击查询, 查找要修改的目标节点。 3. 在查找出的参数行,单击编辑 按钮,出现编辑配置项 对话框。 4. 将修改值根据自己的需求设置为需调整后的参数,单击确定, 出现提示 对话框。 5. 您可单击立即前往 查看任务详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        管理平台使用手册
        参数管理
        修改单个节点上的参数
      • VIP管理
        本页介绍天翼云TeleDB数据库如何添加、编辑和删除VIP。 用户可以连接VIP去访问实例数据库。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台。 2. 在左侧导航树上,选择资源管理 > VIP管理 ,进入VIP管理 页面。 3. 添加VIP 1. 在VIP管理 页面,单击添加VIP ,出现添加VIP对话框。 2. 在添加VIP 对话框,选择IP类型 ,输入IP地址 ,单击确定完成VIP添加。 4. 编辑VIP 在VIP管理页面,单击目标VIP所在行的编辑 ,对VIP进行修改。 5. 删除VIP 单击目标VIP所在行的删除 ,可删除该条VIP。 说明 只能删除未启用状态且未被实例节点使用的的VIP。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        管理平台使用手册
        资源管理
        VIP管理
      • OR REPLACE 更新存储介绍
        本页介绍天翼云TeleDB数据库使用[OR REPLACE] 更新存储的语法。 带OR REPLACE的作用,在建立存储过程时若存在则替换,建立存储时不带 OR REPLACE关键字,则遇到函数已经存系统则会报错,如下所示。 plaintext teledb select prosrc from pgproc where proname'proc1'; prosrc begin + raise notice 'Hello teledbpg';+ end; + (1 row) teledb CREATE OR REPLACE PROCEDURE proc1() AS $$ begin raise notice 'Hello,teledbpg'; end; $$ LANGUAGE PLPGSQL; CREATE PROCEDURE teledb select prosrc from pgproc where proname'proc1'; prosrc begin + raise notice 'Hello,teledbpg';+ end; + (1 row) teledb teledb call proc1(); NOTICE: Hello,teledbpg CALL teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        开发手册
        存储过程开发
        存储过程语法介绍
        OR REPLACE 更新存储介绍
      • 停止节点
        本页介绍天翼云TeleDB数据库停止节点。 操作场景 TeleDB支持手动停止节点,停止节点的所有组件进程,不会删除节点,也不会直接关闭节点所在虚拟机或物理机。 约束与限制 停止节点可能会降低集群承受风险的能力。 停止节点时不可执行备份恢复,备份恢复时也不可执行停止节点。 停止节点后,无法修改实例参数。 操作步骤 1. 切换至TeleDB控制台,在左侧导航单击实例列表。 2. 单击目标实例所在行的详情 ,进入实例详情页面。 3. 进入详情页,单击操作列 的停止, 弹出提示 对话框。 4. 在提示 对话框中,单击确认 停止实例。 5. 您可前往任务管理器查看任务执行情况。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        维护管理实例
        停止节点
      • 复制表
        本页介绍天翼云TeleDB数据库的复制表功能。 复制表是所有DN 节点都存储一份相同的数据。 teledb create table trep (id int,mc text) distribute by replication; CREATE TABLE teledb d+ trep Table "public.trep" Column Type Collation Nullable Default Storage Stats target Description +++++++ id integer plain mc text extended Distribute By: REPLICATION Location Nodes: ALL DATANODES 所有节点都会保存一份数据。 teledb insert into trep values(1,'teledb'),(2,'ctyun'); COPY 2 teledb EXECUTE DIRECT ON (dn01) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows) teledb EXECUTE DIRECT ON (dn02) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        数据表管理
        复制表
      • 计费模式
        本节介绍了云数据库TaurusDB的计费模式。 提供包年包月、按需计费共2种计费模式供您灵活选择,使用越久越便宜。 计费模式 包年包月 按需计费 付费方式 预付费 按照订单的购买周期结算。 后付费 按照云主机实际使用时长计费。 计费周期 按订单的购买周期计费。 秒级计费,按小时结算。
        来自:
        帮助文档
        云数据库TaurusDB
        计费说明
        计费模式
      • 统一身份认证
        本文主要介绍应用性能管理 统一身份认证服务(Identity and Access Management,以下简称IAM)实现用户认证信息的集中管理。用户可以管理自己的已验证邮箱、已验证手机、密码等信息。当用户在调用API接口申请云服务器或进行云资源管理以及使用多租户方式登录云平台时,也可实时查询所需的项目ID、访问密钥(AK/SK)以及帐户名。 通过云审计服务,您可以记录与统一身份认证服务相关的操作事件,便于日后的查询、审计和回溯。 注:统一身份认证服务属全局级服务,各二类节点统一身份认证的相关操作事件请在贵州资源池查看和操作。 表 云审计服务支持的IAM操作列表 操作名称 资源类型 事件名称 用户登录 user login 用户登出 user logout 登录重置密码 user changePassword 创建用户 user createUser 删除用户 user deleteUser 修改用户 user updateUser 创建用户组 userGroup createUserGroup 删除用户组 userGroup deleteUserGroup 修改用户组 userGroup updateUserGroup 创建idp identityProvider createIdentityProvider 删除idp identityProvider deleteIdentityProvider 修改idp identityProvider updateIdentityProvider 更新metadata identityProvider updateMetadata 更新帐号登录策略 domain updateSecurityPolicies 更新密码策略 domain updatePasswordPolicies 更新ACL domain updateACLPolicies 更新安全警告策略 domain updateWarningPolicies 创建AK/SK user addCredential 删除 AK/SK user deleteCredential 修改邮箱 user modifyUserEmail 修改手机 user modifyUserMobile 修改密码 user modifyUserPassword 登录开启双因子认证 user modifySMVerify 上传头像 user modifyUserPicture 创建信任 agency createAgency 删除信任 agency deleteAgency 修改信任信息 agency updateAgency 修改latch user modifyLatchVerify 修改mc user modifyMCConnectVerify 管理员设置用户密码 user setPasswordByAdmin 切换角色 user switchRole
        来自:
        帮助文档
        云审计
        用户指南
        支持审计的服务及详细操作列表
        管理与部署
        统一身份认证
      • 扩展系统盘的分区和文件系统(Linux)
        df TH Filesystem Type Size Used Avail Use% Mounted on /dev/vda1 ext4 43G 2.0G 39G 5% / devtmpfs devtmpfs 509M 0 509M 0% /dev tmpfs tmpfs 520M 0 520M 0% /dev/shm tmpfs tmpfs 520M 7.2M 513M 2% /run tmpfs tmpfs 520M 0 520M 0% /sys/fs/cgroup tmpfs tmpfs 104M 0 104M 0% /run/user/0 /dev/vda2 ext4 43G 51M 40G 1% /opt 云主机重启后,挂载会失效。您可以修改“/etc/fstab”文件,将新建磁盘分区设置为开机自动挂载,请参见设置开机自动挂载磁盘分区。 设置开机自动挂载磁盘分区 您可以通过配置fstab文件,设置云主机系统启动时自动挂载磁盘分区。已有数据的云主机也可以进行设置,该操作不会影响现有数据。 本文介绍如何在fstab文件中使用UUID来设置自动挂载磁盘分区。不建议采用在“/etc/fstab”直接指定设备名(比如/dev/vdb1)的方法,因为云中设备的顺序编码在关闭或者开启云主机过程中可能发生改变,例如/dev/vdb1可能会变成/dev/vdb2,可能会导致云主机重启后不能正常运行。 说明 UUID(universally unique identifier)是Linux系统为磁盘分区提供的唯一的标识字符串。 步骤1 执行如下命令,查询磁盘分区的UUID。 blkid 磁盘分区 以查询磁盘分区“/dev/vdb1”的UUID为例: blkid /dev/vdb1 回显类似如下信息: plaintext [root@ecstest0001 ~]
        来自:
        帮助文档
        专属云(存储独享型)
        用户指南
        磁盘管理
        扩容磁盘
        Linux磁盘扩容后处理
        扩展系统盘的分区和文件系统(Linux)
      • 常见配置问题及解决方案
        本章节向您介绍VPN连接服务故障排查中常见配置问题及解决方案,帮助您加速解决连接问题。 PSK不一致:单独更新预共享密钥会在下一次IKE协商时生效,最长等待一个IKE的生命周期,须确认两端更新密钥一致。 协商策略不一致:请仔细排查IKE中的认证算法、加密算法、版本、DH组、协商模式和IPsec中的认证算法、加密算法、封装格式、PFS算法,特别注意PFS和云下配置一致,部分设备默认关闭了PFS配置。 感兴趣流:两端ACL配置不互为镜像,特别注意云下的ACL配置不能采用地址组名称,要使用真实的IP地址+掩码。 NAT配置:云下子网访问云上子网配置为NONAT,云下公网IP不能被二次NAT为设备的接口IP。 安全策略:放行云下子网访问云上子网的所有协议,放行两个公网IP间的ESP、AH及UDP的500和4500端口。 路由配置:添加访问云上子网的出接口路由为隧道接口或IPsec协商出口,注意出接口的下一跳ARP解析要可达。
        来自:
        帮助文档
        VPN连接
        故障排查
        常见配置问题及解决方案
      • 权限管理
        本节介绍了权限管理的相关内容。 如果您需要对购买的云数据库 GeminiDB资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制资源的访问。 通过IAM,您可以在账号中给员工创建IAM用户,并授权控制对资源的访问范围。例如您的员工中有负责软件开发的人员,您希望拥有云数据库 GeminiDB的使用权限,但是不希望拥有删除云数据库 GeminiDB等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用云数据库 GeminiDB,但是不允许删除云数据库 GeminiDB的权限策略,控制对云数据库 GeminiDB资源的使用范围。 如果账号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用云数据库 GeminiDB服务的其它功能。 IAM是云服务提供权限管理的基础服务,无需付费即可使用,您只需要为您账号中的资源进行付费。 云数据库 GeminiDB权限 默认情况下,管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 云数据库 GeminiDB部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问云数据库 GeminiDB时,需要先切换至授权区域。 根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。 如下表所示,包括了云数据库 GeminiDB的所有系统权限。 表 云数据库 GeminiDB系统权限 策略名称/系统角色 描述 类别 依赖关系 GeminiDB FullAccess 服务所有权限。 系统策略 无 GeminiDB ReadOnlyAccess 服务只读权限。 系统策略 无 下表列出了云数据库 GeminiDB常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表 常用操作与系统权限的关系 操作 GeminiDB FullAccess GeminiDB ReadOnlyAccess 创建实例 √ x 查询实例列表 √ √ 查询实例详情 √ √ 查询任务列表 √ √ 删除实例 √ x 重启实例 √ x 重置密码 √ x 变更实例安全组 √ x 修改数据库端口 √ x 绑定/解绑公网IP √ x 磁盘扩容 √ x 规格变更 √ x 节点扩容 √ x 节点缩容 √ x 修改备份策略 √ x 重命名实例 √ x 创建手动备份 √ x 查询备份列表 √ √ 恢复到新实例 √ x 删除备份 √ x 标签列表 √ √ 标签操作 √ x 下表列出了常用操作以及对应的授权项,您可以参照该表自定义配置权限策略。 表 常用操作与对应的授权项 操作 授权项 授权范围 备注 实例创建页 vpc:vpcs:list vpc:subnets:get vpc:securityGroups:get 支持: IAM项目(Project) 创建页需要查询对应的VPC、子网、安全组。 创建实例 nosql:instance:create vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:ports:get 支持: IAM项目(Project) 界面使用默认VPC、子网、安全组需对应配置vpc::create权限, 查询实例列表 nosql:instance:list 支持: IAM项目(Project) 查询实例详情 nosql:instance:list 支持: IAM项目(Project) 如果实例详情界面需要展示VPC、子网、安全组,请增加vpc::get和vpc::list授权项。 查询任务列表 nosql:task:list 支持: IAM项目(Project) 删除实例 nosql:instance:delete 支持: IAM项目(Project) 删除实例需要同时删除数据侧IP地址。 重启实例 nosql:instance:restart 支持: IAM项目(Project) 重置密码 nosql:instance:modifyPasswd 支持: IAM项目(Project) 绑定公网IP nosql:instance:bindPublicIp 支持: IAM项目(Project) 绑定公网IP时,需要查询已经创建好的公网IP。 不支持细粒度 解绑公网IP nosql:instance:unbindPublicIp 支持: IAM项目(Project) 不支持细粒度 磁盘扩容 nosql:instance:modifyStorageSize 支持: IAM项目(Project) 规格变更 nosql:instance:modifySpecification 支持: IAM项目(Project) 节点扩容 nosql:instance:extendNode vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:ports:get 支持: IAM项目(Project) 节点缩容 nosql:instance:reduceNode 支持: IAM项目(Project) 删除集群节点。 修改备份策略 nosql:instance:modifyBackupPolicy 支持: IAM项目(Project) 重命名实例 nosql:instance:rename 支持: IAM项目(Project) 创建手动备份 nosql:backup:create 支持: IAM项目(Project) 查询备份列表 nosql:backup:list 支持: IAM项目(Project) 恢复到新实例 nosql:backup:restoreToNewInstance vpc:vpcs:list vpc:vpcs:get vpc:subnets:get vpc:securityGroups:get vpc:ports:get 支持: IAM项目(Project) 删除备份 nosql:backup:delete 支持: IAM项目(Project) 标签操作 nosql:instance:tag 支持: IAM项目(Project) 标签列表 nosql:tag:list 支持: IAM项目(Project)
        来自:
        帮助文档
        云数据库GeminiDB
        产品简介
        权限管理
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 将PostgreSQL同步到PostgreSQL
        前提条件 已登录数据复制服务控制台。 满足实时同步支持的数据库类型和版本,详情请参见实时同步。 已阅读以上使用建议和使用须知。 操作步骤 本小节以PostgreSQL>PostgreSQL的入云同步为示例,介绍如何使用数据复制服务配置VPC网络场景下的实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表 任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表同步实例信息 参数 描述 数据流动方向 选择“入云”。 源数据库引擎 选择“PostgreSQL”。 目标数据库引擎 选择“PostgreSQL” 。 网络类型 此处以“VPC网络”为示例,可选公网网络、VPC网络和VPN、专线网络。 目标数据库实例 目标数据库为RDS for PostgreSQL数据库实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 全量+增量:该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 全量该模式为数据库一次性同步,适用于可中断业务的数据库同步场景,全量同步将非系统数据库的全部数据库对象和数据一次性同步至目标端数据库。 标签 表标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 在“源库及目标库”页面,同步实例创建成功后,填写源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 测试连接时需要确保DRS任务与源库、目标库的连通性。 网络连通性: 确保源库和目标库允许DRS访问,通常至少需要放通DRS的IP。公网网络的DRS任务放通DRS的公网IP,VPC网络、VPN、专线网络的DRS任务放通DRS的内网IP。 帐号连通性 :确保源库和目标库允许DRS通过连接帐号和密码访问。 说明 此处源库类型分为ECS自建库和RDS实例,需要根据源数据库的实际来源选择相应的分类。两种场景下的参数配置不一样,需要根据具体场景进行配置。 场景一:ECS自建库源库信息配置 表 ECS自建库场景源库信息 参数 描述 源库类型 选择“ECS自建库”。 VPC 源数据库实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您需要创建或选择所需的虚拟私有云。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。子网在可用分区内才会有效,创建源数据库实例的子网需要开启DHCP功能,在创建过程中也不能关闭已选子网的DHCP功能。 IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 指定数据库名称 选择是否指定数据库,开启后需手动输入数据库名称。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对同步链路的加密。 说明 源数据库的IP地址或域名、数据库用户名和密码,会被系统加密暂存,直至删除该迁移任务后自动清除。 场景二:RDS实例源库信息配置 表RDS实例场景源库信息 参数 描述 源库类型 选择“RDS实例”。 数据库实例名称 选择待同步的关系型PostgreSQL数据库实例作为源数据库实例。 数据库用户名 源数据库实例的用户名。 数据库密码 源数据库的用户名所对应的密码。 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型PostgreSQL数据库实例,不可进行修改。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。 说明 源和目标数据库用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 在“设置同步”页面,选择同步对象和同步用户,单击“下一步”。 表 同步对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 l 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 l 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 l 限速模式只对全量阶段生效,增量阶段不生效。 l 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 增量阶段冲突策略 该冲突策略特指增量同步中的冲突处理策略,全量阶段的冲突默认忽略。冲突策略目前支持如下形式: l 忽略 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 l 报错 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 l 覆盖 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 对象同步范围 对象同步范围支持选择普通索引、增量DDL同步和全量阶段填充物化视图,您可以根据业务需求选择是否进行同步。 全量阶段填充物化视图:仅对源库已经填充的物化视图生效,该填充操作会影响全量同步性能,建议在全量同步完成后,手动在目标库填充。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,同步对象支持表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 l 选择库级同步: 全量同步时,同步对象为所选的库、库中对象的存量数据;增量同步时,同步除了无日志表、临时表外的所有表的DML及部分 DDL。 l 选择表级同步: 全量同步时,同步对象为所选的表、序列、视图或物化视图的存量数据;增量同步时,同步所选表的DML及部分 DDL。 l 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。 模式名或表名映射时,为防止索引和约束名冲突,同步后表上的原索引名称将变为此格式:i+哈希值+原索引名(可能被截断)+key。其中哈希值由“原模式名原表名原索引名”计算得到。同理,同步后表上的原约束名将变为:c+哈希值+原约束名(可能被截断)+key。 说明 l 选择对象的时候支持对展开的库 进行搜索,以便您快速选择需要的数据库对象。 l 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 l 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 l 选择的同步对象名称中不能包含空格。 同步用户 数据库的同步过程中,同步用户需要进行单独处理。 同步用户一般分为两类:可同步的用户和不支持同步的用户。对于不支持同步的用户,在备注列的查看详情中会提示具体的原因,您可以根据业务需求选择是否同步用户和权限。 步骤 5 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 6 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表 任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 7 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将PostgreSQL同步到PostgreSQL
      • 准备工作
        本文介绍训推服务使用前的准备工作。 注册主账号 在开通和使用训推服务之前,您需要先注册天翼云门户的账号。本节将介绍如何进行账号注册,如果您拥有天翼云的账号,可登录后使用训推服务。 1. 详见:注册天翼云账号 2. 如需实名认证,请参考会员服务实名认证。 3. 主账号默认就是IAM管理员角色,具有平台所有权限。 为账户充值 1. 使用训推服务之前,请保证您的账户有充足的余额,账户余额需要大于100元。 2. 关于如何为账户充值,请参考费用中心在线充值。 3. 训推服务支持包周期预付费。 创建子账号 前置条件 通过主账号或角色为IAM管理员的子账号登录到训推服务 创建子账号操作步骤 1. 将鼠标放置在右上角用户登录信息处,会显示一个下拉菜单,点击【基本信息】会进入到【账号中心】页面 2. 在【账号中心】页面,点击进入【统一身份认证】页面,即【IAM】页面 3. 在【IAM】页面,再次进入【用户】页面,在页面右上角点击【创建用户】按钮,进入到【创建用户】页面,按步骤填写相关信息即可创建子用户 需要特别说明的是,在为子用户添加【用户组】时,系统预置了“admin”用户组,如果将账号用户组设置为”admin“用户组(即IAM管理员角色),则子用户拥有所有权限;若希望子用户只拥有普通角色权限,则可以不分配用户组,此时子账号的角色为IAM普通用户。 同时为了方便组织架构较为严密的客户进行多层级资源管理,系统允许用户创建”二级管理员“用户组,其权限仅次于“admin”用户组,"二级管理员"可以和”admin“用户组组合使用,再结合工作空间能力,可实现多级账号资源管理,详见多层级资源管理最佳实践。”二级管理员“用户组创建流程如下: 创建用户组:在用户组页面,点击”创建用户组“,在创建用户组弹窗中分别填写用户组名称和描述; 为用户组授权: 1. 点击授权操作按钮; 2. 在策略名称搜索框中输入”huijuOutSLAdmin“进行搜索,选择所搜索的结果,点击“下一步”按钮,再设置最小授权范围(保持默认设置即可),再点击“确定”即用户组创建完成,此时再创建新用户,就可以选择“二级管理员”用户组了,对应账号将拥有二级管理员权限。 当需要将子账号从某个用户组移除时,可进入到【用户组】页面,进行移除操作,移除后,子账号将不再具有对应用户组的权限
        来自:
        帮助文档
        训推服务
        快速入门
        准备工作
      • API自动发现
        section4b9425cb7dced3ef)。 确认为API资产 开启“确认为API资产”,在任务执行结束后,会将本次任务发现的API自动确认为API资产并展示在“API列表”中。 说明 为保证自动确认的资产不产生大量的冗余数据,单次自动确认的资产不超过100条,如果单次自动发现的资产超过100条时,将会将本次任务所有发现的API资产识别为待确认资产。 识别到待确认API资产后 配置API自动发现任务识别到待确认API资产后,对历史待确认API资产的处理方式: 在历史待确认API列表上新增:将识别到的待确认API资产在原有资产上新增。默认选择该方式。 清除历史待确认API资产:清除历史所有待确认API资产,API资产发现列表仅展示本次新发现的待确认API资产。 7. 参数配置完成后,单击“确认”,系统会自动发现从开始任务之后的API接口。 在API识别过程中,发现一个API待确认资产即显示一个,无需在任务执行完成之后再将所有结果添加至待确认列表。 任务执行过程中,可查看任务执行时间、查看任务详情、手动停止任务。 确认API资产 API自动发现任务识别到待确认API资产后,用户手动将其确认为API资产,即可展示在“API列表”中。 说明 确认API时,如果出现相同API,不会重复添加。 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“API安全 > API管理”,进入API管理页面,选择“API资产发现”页签。 5. 搜索待确认的API。 1. 在页面左侧,展示了所有防护对象信息(不包括泛域名、ELB防护对象),支持选择“所有防护对象”或选择单个域名站点,在右侧API列表中查看对应防护对象的详细数据列表。 选择“所有防护对象”,页面右侧展示所有待确认的API资产。 选择单个域名站点,页面右侧展示选中的域名站点待确认的API资产。 2. 可通过发现时间、请求方法、业务用途对待确认资产进行筛选。 发现时间:根据API资产最近活跃时间对API资产进行过滤,支持昨天、今天、近3天、近30天,或自定义时间范围。默认选中今天。 请求方法:支持多选。 业务用途:支持多选。 API路径:支持模糊匹配。 6. 搜索定位到目标API后,单击操作列的“确认为API”。 或勾选多个API,单击列表上方的“批量确认”进行批量操作。 7. 在确认为API窗口中,确认API信息,可对API名称、业务用途进行修改。 8. 单击“确认”。 确认为API资产后,API资产将从“API资产发现”页面移动到“API列表”页面中。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        API安全
        API管理
        API自动发现
      • 企业证件认证
        企业用户可以通过企业证件认证快速完成账号实名认证。 企业证件认证需要提供企业证照,以及法定代表人及被授权人身份证等相关信息,并进行人脸识别。一个企业信息最多可以认证5个天翼云账号(含已注销3个月内的账号)。 注意事项 法定代表人操作需要提供企业营业执照,以及法定代表人身份证信息。 被授权人操作需提供企业营业执照、法定代表人身份证信息、被授权人身份证信息、授权书,提交后需要等待人工审核。 若系统未查询到企业信息,提交后需要等待人工审核。 注意 企业认证需上传营业执照原件。企业证件不能提供原件时,可提供加盖企业公章复印件作为原件使用,公章需加盖在企业证件文字上方,不得加盖在复印件空白处。 操作步骤 1、登录天翼云官网,进入实名认证页面。 2、选择“企业认证”。 3、在企业认证方式选择页面,选择“企业证件认证”。 4、选择企业证件类型,上传企业证件并核对信息。 注意 请务必根据上传的企业证件选择企业证件类型,若类型不匹配,可能导致认证失败。 上传后,系统会自动识别企业信息,若发现企业信息错误,可手动修改。 证件类型可选择以下几种: 5、选择操作人身份,并提供相应证件信息。 (1)法定代表人 选择法定代表人操作时,需要填写法定代表人姓名、身份证号码。 (2)被授权人(非法定代表人) 选择被授权人操作时,需要填写法定代表人姓名及身份证号码、授权书、被授权人姓名及身份证号码。 6、操作人信息填写无误后,勾选“确保提供的信息真实有效”,并点击下方“提交”,系统会弹出“身份认证”二维码对话窗。 7、使用天翼云APP或手机微信扫描二维码(请扫描页面实时弹出的“身份认证”对话框中的二维码,若过期请刷新),按照提示完成验证。 8、人脸识别通过后,系统进行信息校验,根据校验情况反馈结果。 (1)法定代表人操作 校验通过,则完成企业实名认证,跳转实名认证页面,显示已完成企业实名认证。 校验不通过,如信息不一致,则需要修改信息,重新提交校验。 若系统未查询到企业信息,可继续提交,等待人工审核,审核时间为13个工作日。 (2)被授权人操作(非法定代表人) 校验通过,提交后需要等待人工审核,审核时间为13个工作日。 校验不通过,如信息不一致,则需要修改信息,重新提交校验。 若系统未查询到企业信息,可继续提交,等待人工审核,审核时间为13个工作日。 人工审核通过,实名认证页面显示已完成企业实名认证;人工审核不通过,可在实名认证页面查看原因,调整后重新进行企业证件认证。
        来自:
        帮助文档
        账号中心
        操作指南
        实名认证
        企业实名认证
        企业证件认证
      • 概览
        本文介绍了概览的相关功能。 概览概述 概览用于查看用户整体的裸金属、NAT网关、虚拟私有云、弹性IP、息壤智算集群情况,提供各子页面的快速入口与常见问题解答。 概览说明 用户登录控制台后,默认进入概览页面,根据该资源池特性展示概览信息。 模块 说明 功能介绍 展示裸金属、NAT网关、虚拟私有云、弹性IP、息壤智算集群的功能介绍,并提供创建快捷入口。 资源概览 展示当前登录用户在当前资源池下的资源情况,包括计算(裸金属)、网络(弹性IP、虚拟私有云、NAT网关)、集群(息壤智算集群)的相应统计情况,点击可进入相应列表页查看细节。 产品推荐 展示当前热门产品推荐,点击后新开窗口跳转至相应导购页。 快捷访问 展示算力市场、裸金属、虚拟私有云、NAT网关、息壤智算集群、门户官网快捷入口,点击可进行快捷访问。 常见问题 展示通用计算使用中的出现的常见问题并解答。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        概览
      • 基本概念
        本文帮助您了解对等连接的基本概念。 虚拟私有云(VPC) 虚拟私有云为弹性云主机、物理机、云容器、云数据库等云上资源构建隔离、私密的虚拟网络环境。 路由表 路由表是指虚拟私有云上管理路由条目的列表。 系统路由表:创建VPC后,系统会默认创建一张系统路由表来控制VPC的路由,VPC内所有子网默认使用系统路由表。系统路由表不能创建也不能删除,但可以在系统路由表中创建自定义路由条目。 自定义路由表:支持创建VPC内自定义路由表,将自定义路由表和子网绑定,可更灵活地进行VPC网络管理。 对等连接 对等连接是两个VPC之间的网络连接,可以通过VPC对等连接,实现两个VPC之间私网互通。用户可以在自己帐号下同一资源池的VPC之间创建对等连接,也可以在自己账号的VPC与同一资源池内其他帐号的VPC之间创建对等连接。
        来自:
        帮助文档
        对等连接(文档停止维护)
        产品简介
        基本概念
      • 性能测试
        本文介绍如何进行海量文件服务的性能测试方法。 操作场景 文件系统需要挂载至云主机等计算服务后才可进行数据读写,本文为您介绍对文件系统进行性能测试,为您的使用提供参考。 前提条件 已有一个NFS协议的海量文件系统 已有一台Linux系统弹性云主机用于挂载文件系统,与文件系统须归属于同一VPC,具体操作请参考创建弹性云主机。 操作步骤 1. 以root用户登录弹性云主机,并挂载文件系统,具体操作请请参考挂载NFS文件系统到弹性云主机(Linux)。 2. 安装fio,性能测试工具。 yum install fio y 3. 使用fio命令进行性能测试,4k小文件随机写性能测试: fio filename/mnt/oceanfs/test.dat direct1 iodepth 16 thread rwrandread ioenginelibaio bs4k size10G numjobs4 timebased runtime60 groupreporting namefstest
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        其他操作
        性能测试
      • NAT网关相关术语解释
        本节主要介绍NAT涉及到的相关术语。 弹性IP 弹性IP地址为可以直接访问Internet的IP地址。私有IP地址为公有云内局域网络所有的IP地址,私有IP地址禁止出现在Internet中。 弹性IP是基于互联网上的静态IP地址,将弹性公网IP地址和子网中关联的弹性云主机绑定,可以实现VPC中的弹性云主机通过固定的公网IP地址与互联网互通。 一个弹性公网IP只能给一个弹性云主机使用。 SNAT连接 由源IP地址、源端口、目的IP地址、目的端口、传输层协议这五个元素组成的集合视为一条连接。其中源IP地址和源端口指SNAT转换之后的弹性公网IP和它的端口。连接能够区分不同会话,并且对应的会话是唯一的。 DNAT连接 DNAT功能绑定弹性公网IP,可通过IP映射或端口映射两种方式,实现VPC内跨可用区的多个云主机共享弹性公网IP,为互联网提供服务。
        来自:
        帮助文档
        NAT网关
        产品简介
        NAT网关相关术语解释
      • 立即执行
        本章节介绍,绑定备份策略以后,如何立即执行备份策略。 1、登录控制中心; 2、选中【存储】【云硬盘备份】; 3、在云硬盘备份界面,单击【管理备份策略】按钮,进入管理备份策略页面; 说明 只有新建的备份策略可进行编辑,默认备份策略不可编辑或删除。 4、当备份策略绑定有云硬盘时,选中该备份策略,单击“执行”对策略绑定的所有云硬盘立即执行备份。 5、弹出“立即执行”对话框。 6、确认备份策略参数信息后,单击“确认”。 7、请在“Backup Job”标签页中查看该策略下所有备份任务的信息。
        来自:
        帮助文档
        云硬盘备份 VBS
        用户指南
        使用备份策略备份数据
        备份策略其他操作(可选)
        立即执行
      • 修复容灾复制
        本文为您介绍修复容灾复制的操作流程。 操作场景 当出现复制错误时,可以执行修复复制操作,进行错误修复。 前提条件 受保护的服务器处于“复制错误”状态。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域。 3. 在存储产品中选择“云容灾”,进入云容灾页面。 4. 在云容灾页面,单击“云上容灾”,进入保护组板块展示页面。 5. 在保护组板块展示页面,找到目标保护组,单击目标保护组板块,进入保护组页面。 6. 在保护组页面,在“受保护的服务器”页签,找到目标主机名,在操作列选择“更多>故障切换>修复复制”,进入确认对话框。 7. 在确认对话框,单击“确定”,进行修复复制。
        来自:
        帮助文档
        云容灾 CDR
        用户指南
        管理受保护的服务器
        修复容灾复制
      • 1
      • ...
      • 237
      • 238
      • 239
      • 240
      • 241
      • ...
      • 516
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      轻量型云主机

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      模型推理服务

      应用托管

      知识库问答

      推荐文档

      配置目的端

      如何激活代金券?

      云课堂 第五课:CC攻击介绍及如何防御

      安全防护

      FTP访问

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号