云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云云主机_相关内容
      • 产品优势
        本文介绍云容器引擎的产品优势。 云容器引擎是基于业界主流的Docker和Kubernetes开源技术构建的容器服务,提供众多契合企业大规模容器集群场景的功能,在系统可靠性、高性能、开源社区兼容性等多个方面具有独特的优势,满足企业在构建容器云方面的各种需求。云容器引擎的优点有:大幅提高线上业务的运维、弹性伸缩能力;大幅提高资源、设备及人力的利用率,降低成本;大幅提升产品、业务应用的研发效率。 管理简单 帮助用户屏蔽了底层技术架构,云容器引擎具有强大的集群管理功能,简单的操作流程。用户可自定义集群应用,只需进行简单的单击操作,即可完成业务部署,无需参与底层网络、存储等的技术设计,无需手动搭建docker及kubernetes集群,并进行证书、密钥等配置,减少技术人员的投入,节约人力成本。 云容器引擎平台为集群、应用、容器、网络、配置项、命名空间等丰富的集群资源提供了直观的界面化管理,简化了用户操作。用户可随时随地登陆,进行应用容器的生命周期管理,灵活的安排运行的应用业务,浏览当前具备的资源及业务运行状态,大幅降低了用户的管理成本、运维成本。 安全稳定 云容器引擎服务提供3个master主节点的高可用集群,去中心化式的集群架构,确保当单个主控节点出现问题时,集群也能够无中断的继续运行。相比用户自建的单主控节集群,业务稳定性与连续性大大提高。 云容器服务基于天翼云优秀的IAAS层基础架构搭建,成熟的虚拟化技术、优质的网络架构,以及多层次的安全防护能力,从底层确保了上层容器服务的稳定可靠性。用户可自定义安全组规则,进一步提高隔离水平。 伴随业务版本的快速迭代,云容器引擎服务提供了渐进式的滚动升级策略,搭配容器镜像服务,通过web界面一键完成应用版本升级,无忧实现业务平滑替换,提高业务连续性,保障优质的用户体验感。 云容器引擎提供集群、节点、容器多层面的状态监控,支持全时段的事件监控,应用日志查看,容器健康检查等功能,用户只需登陆容器引擎平台总览页面,即可将集群、网络、CPU、内存资源等信息尽收眼底,时刻把握集群情况,并快速定位故障发生原因,减少运维人力,提高运维效率。 轻松应对 云容器引擎提供了应用层级别的水平伸缩能力,即Horizontal Pod Autoscaling(HPA),支持用户自定义Pod伸缩策略,根据容器资源使用情况,自动快速调整Pod数量,及时应对用户业务流量变化,保障业务对外能力可用。 云容器引擎支持应用与节点、应用间的亲和、反亲和性质的调度策略配置,帮助用户实现节点负载的合理安排和组织,提高系统的稳定性、扩展性。提高各节点的资源利用效率。支持Pod级别迁移策略配置,当节点出现故障时可快速迁移应用。 开放兼容 云容器引擎服务深度整合了天翼云平台成熟的计算、存储、网络、安全等云产品功能,提高了系统的可扩展性。用户可集合平台提供的其它云产品能力,如云主机监控、存储管理等,进一步构建完善云上业务系统。 云容器引擎在Docker技术的基础上,为容器化的应用提供部署运行、资源调度、服务发现和动态伸缩等一系列完整功能,提高了大规模容器集群管理的便捷性。云容器引擎基于业界主流Kubernetes实现,完全兼容Kubernetes/Docker社区原生版本,与社区最新版本保持紧密同步,完全兼容Kubernetes API和Kubectl。 特色功能 镜像仓库:容器引擎为用户提供了配套的镜像仓库管理服务,支持创建仓库及镜像管理等基础功能,并为用户提供了丰富的官方镜像资源,覆盖面广,满足用户不同的业务需求,保障了镜像的可靠性与安全性。用户无需自行搭建和运维仓库,即可一键快速完成业务容器化部署,提高业务容器化效率。 天翼云平台为用户提供了专业的售后运营团队,全天候724小时服务。用户可通过工单、电话等渠道,对产品故障进行反应。团队将及时响应,并快速定位问题,解决客户的疑难杂症。
        来自:
        帮助文档
        云容器引擎(旧版)
        产品简介
        产品优势
      • 重启容灾复制
        本文为您介绍重启容灾复制的操作流程。 操作场景 根据实时情况(如PRO过高、出现异常等问题),用户可以选择重启复制,重启复制过程包括启动复制、全量复制和实时复制的三个过程。 前提条件 受保护的服务器处于“全量复制停止中”或“实时复制停止中”状态。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域。 3. 在存储产品中选择“云容灾”,进入云容灾页面。 4. 在云容灾页面,单击“云上容灾”,进入保护组板块展示页面。 5. 在保护组板块展示页面,找到目标保护组,单击目标保护组板块,进入保护组页面。 6. 在保护组页面,在“受保护的服务器”页签,找到目标主机名,在操作列选择“更多>故障切换>重启复制”,进入确认对话框。 7. 在确认对话框,单击“确定”,重启复制。重启复制后,状态依次为“启动复制中”、“全量复制中”、“实时复制中”。
        来自:
        帮助文档
        云容灾 CDR
        用户指南
        管理受保护的服务器
        重启容灾复制
      • MySQL客户端
        本页面介绍如何通过MySQL客户端连接云数据库ClickHouse。 要通过MySQL客户端连接云数据库ClickHouse,可以使用云数据库ClickHouse的MySQL协议接口。下面是连接步骤: 1. 确保已安装MySQL客户端,例如MySQL命令行客户端或MySQL Workbench。 2. 打开MySQL客户端,并使用以下命令连接到云数据库ClickHouse: mysql h P u p 其中: 是云数据库ClickHouse的主机名或IP地址。 是云数据库ClickHouse的端口号,默认为9004。 是连接云数据库ClickHouse的用户名。 3. 输入密码时,按照提示输入相应的密码。 4. 连接成功后,您可以使用标准的MySQL语法执行查询和操作云数据库ClickHouse。 注意 尽管云数据库ClickHouse提供了MySQL协议接口,但它并不完全支持所有MySQL特性和语法。某些高级功能和语法可能不被支持或有所限制。因此,在连接和操作云数据库ClickHouse时,请确保使用与云数据库ClickHouse兼容的MySQL语法和功能。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        客户端连接
        MySQL客户端
      • mysqldump使用方法
        本文介绍MySQL数据库mysqldump常用方法。 MySQL数据库mysqldump常用方法 导出整个数据库(包括数据库中的数据)。 mysqldump u username p dbname > dbname.sql 导出数据库结构(不含数据)。 mysqldump u username p d dbname > dbname.sql 导出数据库中的某张数据表(包含数据)。 mysqldump u username p dbname tablename > tablename.sql 导出数据库中的某张数据表的表结构(不含数据)。 mysqldump u username p d dbname tablename > tablename.sql 导出全部用户的sql(不包含mysql.user表结构,导入前需确保目标实例不存在重名用户)。 mysqldump h $rdsip P $rdsport u username p setgtidpurgedOFF nocreateinfo mysql user > /tmp/user.sql mysqldump常用参数说明 –alldatabases , A 导出全部数据库mysqldump uroot p –alldatabases。 –alltablespaces , Y导出全部表空间。mysqldump uroot p –alldatabases –alltablespaces–notablespaces , y不导出任何表空间信息。mysqldump uroot p –alldatabases –notablespaces。 –adddropdatabase每个数据库创建之前添加drop数据库语句。mysqldump uroot p –alldatabases –adddropdatabase。 –adddroptable每个数据表创建之前添加drop数据表语句。(默认为打开状态,使用–skipadddroptable取消选项)mysqldump uroot p –alldatabases (默认添加drop语句)mysqldump uroot p –alldatabases –skipadddroptable(取消drop语句)。 –addlocks在每个表导出之前增加LOCK TABLES并且之后UNLOCK TABLE。(默认为打开状态,使用–skipaddlocks取消选项)mysqldump uroot p –alldatabases(默认添加LOCK语句)mysqldump uroot p –alldatabases –skipaddlocks(取消LOCK语句)。 –comments附加注释信息。默认为打开,可以用–skipcomments取消mysqldump uroot p –alldatabases(默认记录注释)mysqldump uroot p –alldatabases –skipcomments(取消注释)。 –completeinsert, c使用完整的insert语句(包含列名称)。这么做能提高插入效率,但是可能会受到maxallowedpacket参数的影响而导致插入失败。mysqldump uroot p –alldatabases –completeinsert。 –compact导出更少的输出信息(用于调试)。去掉注释和头尾等结构。可以使用选项:–skipadddroptable –skipaddlocks –skipcomments –skipdisablekeysmysqldump uroot p –alldatabases –compact。 –compress, C在客户端和服务器之间启用压缩传递所有信息mysqldump uroot p –alldatabases –compress。 –databases, 导出几个数据库。参数后面所有名字参量都被看作数据库名。mysqldump uroot p –databases test mysql。 –debug输出debug信息,用于调试。默认值为:d:t:o,/tmp/mysqldump.tracemysqldump uroot p –alldatabases –debugmysqldump uroot p –alldatabases –debug” d:t:o,/tmp/debug.trace”。 –debuginfo输出调试信息并退出mysqldump uroot p –alldatabases –debuginfo。 –defaultcharacterset设置默认字符集,默认值为utf8mysqldump uroot p –alldatabases –defaultcharactersetlatin1。 –delayedinsert采用延时插入方式(INSERT DELAYED)导出数据mysqldump uroot p –alldatabases –delayedinsert。 –events, E导出事件。mysqldump uroot p –alldatabases –events。 –flushlogs开始导出之前刷新日志。请注意:假如一次导出多个数据库(使用选项–databases或者–alldatabases),将会逐个数据库刷新日志。除使用–lockalltables或者–masterdata外。在这种情况下,日志将会被刷新一次,相应的所有表同时被锁定。因此,如果打算同时导出和刷新日志应该使用–lockalltables 或者–masterdata 和–flushlogs。mysqldump uroot p –alldatabases –flushlogs。 –flushprivileges在导出mysql数据库之后,发出一条FLUSH PRIVILEGES 语句。为了正确恢复,该选项应该用于导出mysql数据库和依赖mysql数据库数据的任何时候。mysqldump uroot p –alldatabases –flushprivileges。 –force在导出过程中忽略出现的SQL错误。mysqldump uroot p –alldatabases –force。 –host, h需要导出的主机信息mysqldump uroot p –hostlocalhost –alldatabases。 –ignoretable不导出指定表。指定忽略多个表时,需要重复多次,每次一个表。每个表必须同时指定数据库和表名。例如:–ignoretabledatabase.table1 –ignoretabledatabase.table2 ……mysqldump uroot p –hostlocalhost –alldatabases –ignoretablemysql.user。 –lockalltables, x提交请求锁定所有数据库中的所有表,以保证数据的一致性。这是一个全局读锁,并且自动关闭–singletransaction 和–locktables 选项。mysqldump uroot p –hostlocalhost –alldatabases –lockalltables。 –locktables, l开始导出前,锁定所有表。用READ LOCAL锁定表以允许MyISAM表并行插入。对于支持事务的表例如InnoDB和BDB,–singletransaction是一个更好的选择,因为它根本不需要锁定表。请注意当导出多个数据库时,–locktables分别为每个数据库锁定表。因此,该选项不能保证导出文件中的表在数据库之间的逻辑一致性。不同数据库表的导出状态可以完全不同。mysqldump uroot p –hostlocalhost –alldatabases –locktables。 –nocreatedb, n只导出数据,而不添加CREATE DATABASE 语句。mysqldump uroot p –hostlocalhost –alldatabases –nocreatedb。 –nocreateinfo, t只导出数据,而不添加CREATE TABLE 语句。mysqldump uroot p –hostlocalhost –alldatabases –nocreateinfo。 –nodata, d不导出任何数据,只导出数据库表结构。mysqldump uroot p –hostlocalhost –alldatabases –nodata。 –password, p连接数据库密码。 –port, P连接数据库端口号。 –user, u指定连接的用户名。
        来自:
        帮助文档
        关系数据库MySQL版
        故障排查
        备份恢复
        mysqldump使用方法
      • 网站
        本节主要介绍静态网站托管。 在“存储桶列表”页面点击“属性”>“网站”,进入“网页”页面。在该页面,用户可以配置存储桶(Bucket)的网站托管属性,配置完成后,可以使用已经备案的静态网站域名访问存放在存储桶内的数据。 注意 如果配置静态网站托管后,当匿名用户直接访问Bucket的域名,会将静态网站文件下载到本地。如果要实现访问静态网站时是预览网站内容,而非下载静态网站文件,静态网站域名须是Bucket绑定的已备案自定义域名,为Bucket绑定自定义域名请联系天翼云客服申请。 OOS自有网站托管域名不支持HTTPS访问,用户自定义域名支持HTTPS访问。如果需要支持HTTPS访问,请联系天翼云客服,提供域名证书,证书支持格式:crt+key或者PEM,请确保提供的证书在有效期内,建议证书有效期至少1年及以上,避免使用免费证书。 尽量避免目标Bucket名中带有“.”,否则通过HTTPS访问时可能出现客户端校验证书出错。 网站托管配置步骤如下: 1. 创建一个公共读属性的存储桶(Bucket) 。 2. 向天翼云客服提交工单,申请客户自定义域名添加白名单 。 3. 在域名管理中添加别名 。 如果不使用CDN加速,将Bucket的CNAME Record Value(BucketName.ooswebsitecn.oosxx.ctyunapi.cn)作为别名添加到域名管理系统中。 如果使用CDN加速,将CDN厂商提供的别名添加到域名管理系统中,然后在CDN回源地址中配置OOS侧的CNAME Record Value,并将回源host配置为您的自定义域名(如yourdomain.com)。 说明 创建Bucket时显示的Endpoint为ooscn.ctyunapi.cn,该Endpoint是针对整个对象存储网络的域名,该域名在解析时,会根据用户地理位置的不同解析到不同的资源池地址。如果创建Bucket时有多个数据位置,系统默认选取创建时第一个有效数据位置作为CNAME Record Value(BucketName.ooswebsitecn.oosxx .ctyunapi.cn)。如果创建Bucket时,只有一个数据位置可用,则在Bucket区域中展示的CNAME Record Value为BucketName.ooswebsitecn.ooscn.ctyunapi.cn。所以如果使用静态网站托管,建议您根据Bucket区域属性中的数据位置,选择您想使用的数据位置的CNAME Record Value作为域名管理系统中的别名。例如您创建Bucket时有效数据位置为沈阳、兰州、成都、贵阳,则Bucket中展示的CNAME Record Value为BucketName.ooswebsitecn.ooslnsy.ctyunapi.cn,您可以将BucketName.ooswebsitecn.ooslnsy.ctyunapi.cn作为别名,也可以将兰州、成都或者贵阳为域名的CNAME Record Value作为您的别名。 4. 上传文件 。 将网站的所有文件(html、CSS、js、图片等)上传到之前创建的Bucket中,注意保持文件之间的相对路径。 5. 配置Bucket网站属性。 进入“网站属性”,选择“启用”,进行网站托管配置: 托管模式为配置到当前存储桶: 配置首页:首页指访问网站时跳转到的页面。例如将 配置错误页(可选):错误页指当访问网站时,出现错误跳转到的页面。例如将 重定向规则(可选):可以通过制定重定向规则,将满足条件的请求重定向到指定主机或页面。控制台支持配置JSON格式的重定向规则。可以配置多条重定向规则,每条重定向规则一个Condition和一个Redirect。例如: [ { "Condition": { "HttpErrorCodeReturnedEquals": "string", "KeyPrefixEquals": "string" }, "Redirect": { "HostName": "string", "Protocol": "Protocol", "ReplaceKeyPrefixWith": "string" } } ] 重定向规则描述 项目 描述 :: Condition Condition元素可以不配置,若配置,则包含元素不能为空。 Condition中可包含的元素:KeyPrefixEquals(重定向请求时匹配的文件名前缀)、HttpErrorCodeReturnedEquals(重定向请求时匹配的HTTP错误码)。 当某一元素存在多条值时以最后一条为准。 当KeyPrefixEquals和HttpErrorCodeReturnedEquals存在时,需要同时匹配时才生效。 如果Condition未配置,相当于匹配所有规则。 Redirect Redirect必须配置。Redirect可以为空,可以包含元素。 Redirect中可包含的元素:Protocol(重定向请求时使用的协议,取值http或https)、HostName(重定向请求时使用的站点名)、ReplaceKeyPrefixWith(描述重定向请求时使用的文件名前缀)、ReplaceKeyWith(重定向请求时使用的文件名)。 当某一元素存在多条值时,以最后一条为准。 ReplaceKeyPrefixWith和ReplaceKeyWith不能同时存在。 托管模式为重定向请求:需要设置重定向的存储桶访问域名或者URL,所有到达该存储桶的请求将被重定向到该地址。例如,你将重定向页面配置为www.ctyun.cn,所有到您域名(如
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        存储桶管理
        网站
      • 创建连接MRS集群的SSH隧道并配置浏览器
        本章节主要介绍创建连接MRS集群的SSH隧道并配置浏览器 。 操作场景 用户和MRS集群处于不同的网络中,需要创建一个SSH隧道连接,使用户访问站点的数据请求,可以发送到MRS集群并动态转发到对应的站点。 MAC系统暂不支持该功能访问MRS,请参考通过弹性公网IP访问内容访问MRS。 前提条件 准备一个SSH客户端用于创建SSH隧道,例如使用开源SSH客户端Git。请下载并安装。 已创建好集群,并准备pem格式的密钥文件或创建集群时的密码。 用户本地环境可以访问互联网。 操作步骤 1.登录MRS管理控制台,选择“集群列表 > 现有集群”。 2.单击指定名称的MRS集群。 记录集群的“安全组” 。 3.为集群Master节点的安全组添加一条需要访问MRS集群的IP地址的入规则,允许指定来源的数据访问端口“22”。 具体请参见“《虚拟私有云》帮助文档> 安全性 > 安全组 > 添加安全组规则”。 4.查询集群的主管理节点,具体请参考如何确认Manager的主备管理节点。 5.为集群的主管理节点绑定一个弹性IP地址。 具体请参见“《虚拟私有云》帮助文档”,为弹性云主机申请和绑定弹性公网IP。 6.在本地启动Git Bash,执行以下命令登录集群的主管理节点: ssh root@弹性 IP 地址或者 ssh i 密钥文件路径 root@弹性 IP 地址 7.执行以下命令查看数据转发配置: cat /etc/sysctl.conf grep net.ipv4.ipforward 系统查询到“net.ipv4.ipforward1”表示已配置转发,则请执行步骤9。 系统查询到“net.ipv4.ipforward0”表示未配置转发,则请执行步骤8。 系统查询不到“net.ipv4.ipforward”参数表示该参数未配置,则请执行以下命令后再执行步骤9。 echo "net.ipv4.ipforward 1"/etc/sysctl.conf 8.修改节点转发配置: a.执行以下命令切换root用户: sudo su root b.执行以下命令,修改转发配置: echo 1 > /proc/sys/net/ipv4/ipforward sed i "s/net.ipv4.ipforward0/net.ipv4.ipforward 1/g"/etc/sysctl.conf sysctlw net.ipv4.ipforward1 c.执行以下命令,修改sshd配置文件: vi /etc/ssh/sshdconfig 按I进入编辑模式,查找“AllowTcpForwarding”和“GatewayPorts”,并删除注释符号,修改内容如下,然后保存并退出: AllowTcpForwarding yesGatewayPorts yes d.执行以下命令,重启sshd服务: service sshd restart 9.执行以下命令查看浮动IP地址: ifconfig 系统显示的“eth0:FIHUE”表示为Hue的浮动IP地址,“eth0:wsom”表示Manager浮动IP地址,请记录“inet”的实际参数值。 然后退出登录:exit 10.在本地机器执行以下命令创建支持动态端口转发的SSH隧道: 使用命令 ssh i 密钥文件路径 v ND 本地端口地址 root@弹性IP 地址或者 ssh v ND 本地端口地址 root@弹性 IP 地址 ,然后输入创建集群时的密码。 其中,“本地端口地址”需要指定一个用户本地环境未被使用的端口,建议选择8157。 创建后的SSH隧道,通过“D”启用动态端口转发功能。默认情况下,动态端口转发功能将启动一个SOCKS代理进程并侦听用户本地端口,端口的数据将由SSH隧道转发到集群的主管理节点。 11.执行如下命令配置浏览器代理。 a.进入本地Google Chrome浏览器客户端安装目录。 b.按住“shift+鼠标右键”,选择“在此处打开命令窗口”,打开CMD窗口后输入如下命令: chrome proxyserver"socks5://localhost:8157" hostresolverrules"MAP 0.0.0.0 , EXCLUDE localhost" userdatadirc:/tmppath proxybypasslist"googlecom, gstatic.com, gvt .com, :80" 说明 8157为步骤10中配置的本地代理端口。 若本地操作系统为Windows 10,请打开Windows操作系统“开始”菜单,输入cmd命令,打开一个命令行窗口执行12中的命令。若该方式不能成功,请打开Windows操作系统“开始”菜单后,在搜索框中输入并执行11中的命令。 12.在新弹出的浏览器地址栏,输入Manager的访问地址。 Manager访问地址形式为 浮动IP 地址:28443/web 。 访问启用Kerberos认证的集群时,需要输入MRS集群的用户名和密码,例如“admin”用户。未启用Kerberos认证的集群则不需要。 第一次访问时,请根据浏览器提示,添加站点信任以继续打开页面。 13.准备站点的访问地址。 a.参考开源组件Web站点中的Web站点一览,获取Web站点的地址格式及对应的角色实例。 b.单击“服务管理”。 c.单击指定的服务名称,例如HDFS。 d.单击“实例”,查看NameNode的主角色实例“NameNode(主)”的“业务IP” 14.在浏览器输入访问Web站点真实地址并访问。 15.退出访问Web站点时,请终止并关闭SSH隧道。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        访问MRS集群上托管的开源组件Web页面
        创建连接MRS集群的SSH隧道并配置浏览器
      • 查询云墙日志内容
        参数 参数类型 说明 示例 下级对象 hostid String 主机名 time String 时间 ipproto Integer IP协议 1:v4; 2:v6 proto Integer 协议 1:icmp; 6:tcp; 17:udp sip String 源IP dip String 目的IP sport Integer 源端口 dport Integer 目的端口 dir Integer 方向 1:in2out; 2:out2in appid Integer 应用id action Integer 动作, 1:pass; 2:drop ruleid Long 规则id(入侵防御/访问控制/流量日志有) level String 事件等级, 1:Low; 2:Middle; 3:High (入侵防御/访问控制日志有) origin Integer 来源, 1:基础防御 2:虚拟补丁 3:访问控制 4:黑名单 5:白名单 (入侵防御/访问控制日志有) originbytes Long 正向字节数(流量日志有) originpackets Long 正向报文数(流量日志有) responsebytes Long 应答字节数(流量日志有) responsepackets Long 应答报文数(流量日志有) origintime String 发起时间(流量日志有) terminaltime String 终止时间(流量日志有) gwlbeid String gwlbe id(入侵防御日志有) className String 攻击类型(入侵防御日志有) virus String 病毒名称 (病毒日志有) md5 String md5值 (病毒日志有)
        来自:
        帮助文档
        云防火墙(原生版)
        API参考
        API
        2023-10-16
        日志管理
        查询云墙日志内容
      • 创建命名空间
        本文为您介绍创建命名空间的具体操作。 使用限制 同一子账号下最多支持创建10个命名空间。 命名空间与容灾管理中心为1:10绑定关系。 若容灾中心涉及三方数据中心,需预先在三方数据中心管理模块中完成创建。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏 “命名空间”,进入命名空间页面。点击右上角“创建命名空间”按钮,进入创建命名空间页面。 5. 选择容灾形态。当前仅支持同城主备、同城多活、异地主备。 6. 输入命名空间名称。注意:名称长度为263字符,由文字、数字、字母、组成,不能以数字和开头、且不能以结尾。 7. 选择企业项目。企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。默认名称default。 8. 填写容灾分区的相关信息,配置项详细说明见下表。 参数 是否必填 配置说明 容灾形态 √ 选择命名空间的容灾形态。 同城多活:多活业务中各多活子信息系统均处于同一地理区域,建议物理距离<100KM。 同城主备:同城主备业务中各生产子信息系统均处于同一地理区域,建议物理距离<100KM,且灾备中心需要手动拉起。 异地主备:异地主备业务中各生产子信息系统均处于不同地理区域,建议物理距离>100KM,且灾备中心需要手动拉起。 名称 √ 填写命名空间名称,用以实现租户粒度的管控配置和资源隔离。 长度为263字符,由文字、数字、字母、组成,不能以数字和开头且不能以结尾。同一主账号下命名空间名称不可重复。 描述 × 填写命名空间的描述信息。 长度为0100个字符。 企业项目 √ 选择命名空间所在的企业项目。 选择对应的企业项目后,可将命名空间和企业项目关联。仅企业账号可见此配置项。默认名称default。 容灾分区 √ 展示容灾分区相关信息,如分区角色、分区名称、地域、可用区等。 分区角色 √ 选择分区角色。 容灾形态为同城多活时,容灾分区为分区1、2,最多可创建3个分区。 容灾形态为同城主备/异地主备时,容灾分区为生产中心、容灾中心,不可增加分区。 分区类型 √ 选择分区角色的分区类型。 容灾形态为同城多活时,分区类型为天翼云。 容灾形态为同城主备/异地主备时,生产中心的分区类型可选择天翼云或三方数据中心。容灾中心的分区类型为天翼云。 注:MDR在同城/异地主备场景下支持三方数据中心为生产中心。 分区名称 √ 填写不同分区名称。 由文字、数字、字母、组成,不能以数字和开头且不能以结尾。同一命名空间下分区名称不可重复。 地域 √ 分区类型为天翼云时展示,可选支持MDR多活容灾服务的资源池信息。 容灾形态为同城多活时,不同分区需选择同一地域,且可新增一个分区。 容灾形态为同城主备时,生产中心和容灾中心需选择同一个地域,不可增加分区。 容灾形态为异地主备时,生产中心和容灾中心可选择不同地域,不可增加分区。 可用区 √ 分区类型为天翼云时展示,可选当前区域下所有可用区信息。不同可用区之间物理隔离,但内网互通。 三方数据中心 √ 分区类型为三方数据中心时展示,可选在三方数据中心模块下创建的所有三方数据中心。 9. 点击“立即创建”按钮,完成命名空间创建。 10. 在命名空间列表页,可以查看已经创建的命名空间相关信息,如命名空间名称、容灾形态、所属企业项目、分区角色、分区名称、分区位置、资源实例数、创建时间及相关操作等。其中,资源实例数指资源模块中加入该命名空间下资源实例数量,当前包含的资源类型有云主机、数据库、对象存储。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        命名空间
        创建命名空间
      • 将MySQL同步到MySQL
        操作步骤 本小节以RDS for MySQL>MySQL的出云实时同步为示例,介绍如何使用数据复制服务创建两个数据库实例之间的实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“下一步”。 表 任务和描述 参数 描述 :: 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 表 同步实例信息 参数 描述 :: 数据流动方向 选择“出云”,即源端数据库为本云数据库。 源数据库引擎 选择“MySQL”。 目标数据库引擎 选择“MySQL”。 网络类型 此处以公网网络为示例。 可根据业务场景选择公网网络、VPC网络和VPN、专线网络。 源数据库实例 用户所创建的关系型数据库实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。 默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步类型 此处以“全量+增量”为示例。 “全量+增量”:该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 “增量”:增量同步通过解析日志等技术,将源端产生的增量数据同步至目标端。 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见 标签管理。 步骤 3 同步实例创建成功后,在“源库及目标库”页面,填选源库信息和目标库信息后,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表 源库信息 参数 描述 :: 数据库实例名称 默认为创建同步任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 源数据库对应的用户名。 数据库密码 源数据库用户名对应的密码。 说明 源数据库用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 表 目标库信息 参数 描述 :: IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对同步链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 说明 目标数据库IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 步骤 4 在“设置同步”页面,选择数据冲突策略和同步对象,单击“下一步”。 表 同步模式和对象 参数 描述 :: 流速模式 流速模式支持限速和不限速,默认为不限速。 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为全天限流,您也可以根据业务需求自定义时段限流。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 限速模式只对全量阶段生效,增量阶段不生效。 您也可以在创建任务后修改流速模式。具体方法请参见 修改流速模式。 增量阶段冲突策略 该冲突策略特指增量同步中的冲突处理策略,全量阶段的冲突默认忽略。冲突策略目前支持如下三种形式: 忽略 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 报错 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 覆盖 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 当数据发生冲突时,针对如下情况,建议选择“忽略”或者“覆盖”,否则建议选择“报错”: 目标数据库存在数据 多对一同步场景 目标数据库手动更新数据 是否过滤DROP DATABASE 实时同步过程中,源数据库端执行的DDL操作在一定程度上会影响数据的同步能力,为了降低同步数据的风险,数据复制服务提供了过滤DDL操作的功能,目前支持默认过滤删除数据库的操作。 是,表示过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示过程中将相关操作同步到目标库。 对象同步范围 对象同步范围支持普通索引和增量DDL同步。您可以根据业务需求选择是否进行同步。 数据同步拓扑 数据同步功能支持多种同步拓扑,您可以根据业务需求规划您的同步实例。数据同步拓扑说明可参考 数据同步拓扑介绍。 增量支持DDL 用户根据需求选择增量同步的DDL类型,不同链路支持的DDL类型以显示为准。 一对一、一对多场景:如果业务上认为源和目标应该使用保持严格一致,那么高危类DDL也应该勾选并同步。如果业务上确定某个高危DDL不应该发生,则可以不勾选同步高危类DDL,这样DRS将拦截过滤这个DDL,从而起到保护目标数据的作用。但需要知晓,过滤DDL的附带问题是可能导致同步失败,例如过滤删列动作。 多对一数据聚合场景:最佳方式是推荐只选择同步加列DDL,其他大部分DDL同步都可能因目标表修改而导致数据不一致或多对一中其他任务失败的情况发生。 同步对象 可选表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 选择数据的时候支持搜索,以便您快速选择需要的数据库对象。 如果有切换源数据库的操作,请在选择同步对象前单击右上角的 ,以确保待选择的对象为最新源数据库对象。 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。 步骤 5 在“数据加工”页面,根据需要选择数据加工的方式。 如果不需要数据加工,单击“下一步”。 如果需要数据加工,可选择“数据过滤”、“附加列”或“列加工”,参考 数据加工章节,设置相关规则。 步骤 6 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 7 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表 任务启动设置 参数 描述 :: 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 8 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见 任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        出云
        将MySQL同步到MySQL
      • 应用服务网格
        参数 描述 STARTTIME 请求开始时间。 REQ(:METHOD) 请求方法。 REQ(XENVOYORIGINALPATH?:PATH) 请求的原始路径,若无则使用标准路径。 PROTOCOL 请求所使用的协议。 RESPONSECODE 服务器对请求的响应状态码。 RESPONSEFLAGS 响应的标志,提供关于响应的特性信息。 BYTESRECEIVED 接收到的字节数,指示请求消息的大小。 BYTESSENT 发送出去的字节数,指示响应消息的大小。 DURATION 请求处理的持续时间,包括接收到请求到发送响应的时间。 RESP(XENVOYUPSTREAMSERVICETIME) 上游服务的响应时间,表示上游服务处理请求所花费的时间。 REQ(XFORWARDEDFOR) 请求的xff头部。 REQ(USERAGENT) 请求的用户代理,标识发起请求的软件。 REQ(XREQUESTID) 请求的唯一标识符,用于跟踪请求的生命周期。 REQ(:AUTHORITY) 请求的主机名,在HTTP/2中对应请求的authority字段。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        应用服务网格
      • 日志中心
        参数 描述 STARTTIME 请求开始时间。 REQ(:METHOD) 请求方法。 REQ(XENVOYORIGINALPATH?:PATH) 请求的原始路径,若无则使用标准路径。 PROTOCOL 请求所使用的协议。 RESPONSECODE 服务器对请求的响应状态码。 RESPONSEFLAGS 响应的标志,提供关于响应的特性信息。 BYTESRECEIVED 接收到的字节数,指示请求消息的大小。 BYTESSENT 发送出去的字节数,指示响应消息的大小。 DURATION 请求处理的持续时间,包括接收到请求到发送响应的时间。 RESP(XENVOYUPSTREAMSERVICETIME) 上游服务的响应时间,表示上游服务处理请求所花费的时间。 REQ(XFORWARDEDFOR) 请求的xff头部。 REQ(USERAGENT) 请求的用户代理,标识发起请求的软件。 REQ(XREQUESTID) 请求的唯一标识符,用于跟踪请求的生命周期。 REQ(:AUTHORITY) 请求的主机名,在HTTP/2中对应请求的authority字段。
        来自:
        帮助文档
        应用服务网格
        用户指南
        可观测管理中心
        日志中心
      • Linux主机挂载
        介绍Linux主机挂载块存储的最佳实践。 实践背景 块空间使用的是iSCSI协议,因此在新建块空间后需要使用iSCSI客户端来连接块空间。 本实践是在centos 7上,具有免密sudo权限的普通用户使用iSCSI客户端连接天翼云媒体存储块空间,并且对其进行格式化的过程。 操作步骤 1.执行以下命令,安装iSCSI客户端。 sudo yum install y iscsiinitiatorutils sudo yum install y devicemappermultipath 当系统出现如下所示的更新完毕作为依赖被升级完毕的提示时,说明软件安装完成。 若已安装过所需软件,系统会提示对应的软件包已安装并且是最新版本无须任何处理。 2.配置iSCSI多路径,具体步骤如下: (1) 执行以下命令,生成配置文件/etc/multipath.conf。 mpathconf enable withmultipathd y (2)执行以下命令,修改多路径配置。 sudo vi /etc/multipath.conf (3)添加如下内容。 defaults { userfriendlynames yes pathgroupingpolicy failover failback immediate nopathretry fail } devices { device { vendor "LIOORG" hardwarehandler "1 alua" pathgroupingpolicy "failover" pathselector "queuelength 0" failback 60 pathchecker tur prio alua prioargs exclusiveprefbit fastiofailtmo 25 nopathretry queue } device { vendor "CTyun" pathgroupingpolicy "failover" pathselector "queuelength 0" failback 60 pathchecker tur prioargs exclusiveprefbit fastiofailtmo 25 nopathretry queue } } (4)执行以下命令,进行服务重启。 sudo systemctl restart multipathd 3.修改iSCSI Client的InitiatorName,具体步骤如下: (1)运行以下命令。 sudo vi /etc/iscsi/initiatorname.iscsi (2)将InitiatorName(下图红框内内容)修改为创建块空间时填写的CHAP iqn;具体可参考操作步骤【块空间管理】查看所需挂载块空间的CHAP iqn信息(图中的例子为iqn.209901.com.client.cicdtestcy:230323)。 4.修改CHAP权限,具体步骤如下: (1)运行以下命令。 sudo vi /etc/iscsi/iscsid.conf (2)找到以下内容: 修改为下图中内容,其中红框内的username的等号后面填写创建块空间时设定的CHAP用户(图中的例子为testblockzd),password的等号后面填写创建块空间时设定的CHAP密钥(图中的例子为111111111111)。 5.连接块空间,具体步骤如下: (1)为确保连接顺利,先执行 setenforce 0 命令临时禁用防火墙。 (2)执行以下命令,重启相关组件。 sudo systemctl restart iscsid (3)执行以下命令增加iSCSI连接target,具体的targetname参数与portal参见块空间信息中的targetIqn、网关地址与数据端口,具体查看步骤可见操作步骤【块空间管理】。 sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:13260 opnew sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:23260 opnew (4)执行以下命令,进行登入操作。 sudo iscsiadm m node T iqn.201810.com.redhat.iscsigw:iscsiigw l 说明 对于步骤5(3)、5(4),可直接通过块空间详情复制对应的操作命令,具体界面如图所示: 更多块空间管理操作可参考: (5)若系统出现以下提示表示登录成功。 (6)可通过以下命令查看新增磁盘。 sudo lsscsi sudo fdisk l sudo lsblk sudo multipath l 注意: 执行后会发现除了机器的原有磁盘外,还挂载了三个新的磁盘,一个是以/dev/mapper/开头的磁盘,另外两个是以/dev/sd开头的磁盘,我们挂载的是前者,即是以/dev/mapper/的磁盘。 每次挂载,该磁盘后面的名字都可能不一样。 如果你有多个块空间使用了同一个iqn,每个块在查看磁盘时均会看到一个以/dev/mapper/开头的磁盘以及两个以/dev/sd开头的磁盘,请总是使用以/dev/mapper/开头的磁盘来进行挂载。 (7)根据系统协议执行以下命令,进行磁盘格式化: xfs文件系统: sudo mkfs.xfs /dev/mapper/mpatha ext4文件系统: sudo mkfs.ext4 /dev/mapper/mpatha 注意 :可以根据实际需求选择命令,将命令中“/dev/mapper/mpatha”部分改为步骤(6)中查找到的新增磁盘地址。 (8)执行以下命令,挂载到本地目录。 sudo mount /dev/mapper/mpatha /mnt/iscsiMnt 注意: mount后第一部分为新增磁盘的实际地址。 mount后第二部分为进行挂载的本地目录地址。 可以通过mount l命令查看是否挂载成功,若显示信息中包含挂载信息则挂载成功,以上样例对应的挂载信息如下,该样例已成功挂载。 (9)执行以下命令,查看已连接的目标。 sudo iscsiadm m session 6.如需断开连接,则执行以下命令。 sudo iscsiadm m node T iqn.201810.com.redhat.iscsigw:iscsiigw u 7.执行以下命令,删除所有记录。 sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:13260 opdelete sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:23260 opdelete 说明 对于步骤6、7,可直接通过块空间详情复制对应的操作命令,具体界面如图所示: 更多块空间管理操作可参考:
        来自:
        帮助文档
        媒体存储
        最佳实践
        块存储
        Linux主机挂载
      • 使用Hive客户端
        本章节主要介绍使用Hive的操作指导。 操作场景 该任务指导用户在运维场景或业务场景中使用Hive客户端。 前提条件 已安装客户端,例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Hive客户端 1. 安装客户端,具体请参考安装客户端章节。 2. 用户登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 将实际的zookeeper主机名替换以下命令中的zkhostname1、zkhostname2、zkhostname3,执行命令登录Hive客户端。 plaintext beeline u "jdbc:hive2://zkhostname1:2181,zkhostname2:2181,zkhostname3:2181/default;serviceDiscoveryModezooKeeper;zooKeeperNamespacehiveserver2" 说明 beeline连接后可以编写并提交HQL语句执行相关任务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Hive客户端
      • 步骤一(2):创建出云迁移任务
        本节主要介绍步骤一(2):创建出云迁移任务 数据库复制服务提供出云的功能,可以将本云上的数据库迁移至用户端数据库,方便进行数据回流处理。 本章节将以RDS for MySQL到ECS自建MySQL的迁移为示例,介绍在同一VPC网络场景下,通过数据库复制服务管理控制台配置数据迁移任务的流程,其他存储引擎的配置流程类似。 VPC网络适合本云内数据库之间的迁移。在数据库复制服务中,数据库迁移是通过任务的形式完成的,通过创建任务向导,可以完成任务信息配置、任务创建。迁移任务创建成功后,您也可以通过数据库复制服务管理控制台,对任务进行管理。 目前数据库复制服务支持每个用户最多可创建5个实时迁移任务。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时迁移支持的数据库类型。 满足出云迁移的限制条件。 操作步骤 1、在“实时迁移管理”页面,单击“创建迁移任务”,进入创建迁移任务页面。 2、在“迁移实例”页面,填任务名称、任务异常通知设置、时延阈值、描述、迁移实例信息。 图 迁移任务信息 表 任务和描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当迁移任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量迁移阶段,源数据库和目标数据库之间的实时同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量迁移阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 迁移实例信息 表 迁移实例信息 参数 描述 数据流动方向 选择出云。 出云指源端数据库为本云数据库的场景。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 目前支持公网网络、VPC网络和VPN、专线网络类型,您可以根据具体的业务场景进行设置,此处场景以VPC网络为示例。 VPC网络:适合云上数据库之间的迁移。 VPN、专线网络:适合通过VPN、专线网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 公网网络:适合将其他云下或其他平台的数据库迁移到目标数据库。 源数据库实例 用户需要迁移的数据库实例。 迁移模式 全量:该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程等。 说明 如果用户只进行全量迁移时,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量:该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程中完成的目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将源端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 3、在“源库及目标库”页面,迁移实例创建成功后,填选源库信息和目标库信息,并单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 图 源库信息 表 源库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 源数据库对应的数据库用户名。 数据库密码 源数据库对应的数据库密码。任务为启动中、全量迁移、增量迁移、增量迁移失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 说明 源数据库的用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 VPC 目标数据库所在的虚拟专用网络,可以对不同业务进行网络隔离。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。子网在可用分区内才会有效,创建源数据库实例的子网需要开启DHCP功能,在创建过程中也不能关闭已选子网的DHCP功能。 IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量迁移、增量迁移、增量迁移失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 所有Definer迁移到该用户下 是 迁移后,所有源数据库对象的Definer都会迁移至该用户下,其他用户需要授权后才具有数据库对象权限。 否 迁移后,将保持源数据库对象Definer定义不变,选择此选项,需要配合下一步用户权限迁移功能,将源数据库的用户全部迁移,这样才能保持源数据库的权限体系完全不变。 说明: 目标数据库的IP地址、端口、用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 4、在“迁移设置”页面,设置迁移用户和迁移对象等信息,单击“下一步”。 图 迁移模式 表 迁移模式 参数 描述 快照模式 如果您选择的是全量迁移模式的任务,数据库复制服务支持设置快照模式。 非快照式 适用于停止业务数据写入的导出,如果全量迁移中仍然有业务数据的修改,则导出数据为时间点非水平一致。稳定性和性能要优于快照式全量迁移。 快照式 可以在业务运行时产生一份时间水平一致的快照数据,具有业务数据分析价值,过程中的数据变化不会体现在导出数据中。 说明 快照读会使用MySQL备份锁进行全局锁表,在开启一致性读后自动解锁(加锁时间在3s以内),备份锁会对此期间的DML或者DDL操作造成阻塞,建议用户选择源库空闲的时间段使用快照备份功能。 目前仅MySQL全量模式的迁移任务支持快照模式设置。 是否过滤DROP DATABASE 增量迁移过程中,源数据库端执行的DDL操作在一定程度上会影响数据的迁移能力,为了降低迁移数据的风险,数据库复制服务提供了过滤DDL操作的功能。 目前支持默认过滤删除数据库的操作。 是,表示数据迁移过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示数据迁移过程中将相关操作同步到目标库。 说明 目前仅支持RDS for MySQL实例>MySQL数据库数据库的全量+增量的迁移场景。 迁移用户 数据库的迁移过程中,迁移用户需要进行单独处理。 常见的迁移用户一般分为三类:可完整迁移的用户、需要降权的用户和不可迁移的用户。您可以根据业务需求选择“迁移”或者“不迁移”,选择“迁移”后,可根据需要选择迁移用户。 迁移 当您选择迁移用户时,请参见《数据库复制服务用户指南》中“迁移用户”章节进行数据库用户、权限及密码的处理。 不迁移 迁移过程中,将不进行用户、权限和密码的迁移。 迁移对象 您可以根据业务需求,选择全部对象迁移、表级迁移或者库级迁移。 全部迁移:将源数据库中的所有对象全部迁移至目标数据库,对象迁移到目标数据库实例后,对象名将会保持与源数据库实例对象名一致且无法修改。 表级迁移:将选择的表级对象迁移至目标数据库。 库级迁移:将选择的库级对象迁移至目标数据库。 如果有切换源数据库的操作或源库迁移对象变化的情况,请务必在选择迁移对象前单击右上角的按钮,以确保待选择的对象为最新源数据库对象。 说明 若选择部分数据库进行迁移时,由于存储过程、视图等对象可能与其他数据库的表存在依赖关系,若所依赖的表未迁移,则会导致迁移失败。建议您在迁移之前进行确认,或选择全部数据库进行迁移。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 5、在“预检查”页面,进行迁移任务预校验,校验是否可进行迁移。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行迁移任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 图 预检查 预检查完成后,且预检查通过率为100%时,单击“下一步”。 说明 所有检查项结果均通过时,若存在待确认项,需要阅读并确认详情后才可以继续执行下一步操作 6、在“任务确认”页面,选择迁移任务的启动时间,并确认迁移任务信息无误后,单击“启动任务”,提交迁移任务。 说明 迁移任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”,优选“稍后启动”。 预计迁移任务启动后,会对源数据库和目标数据库的性能产生影响,强烈建议您将任务启动时间设定在业务低峰期,同时预留23天校对数据。 7、迁移任务提交后,您可在“实时迁移管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤一(2):创建出云迁移任务
      • linux虚机内关键文件路径
        本文介绍linux虚机内关键文件路径 在 Linux 操作系统中,有许多关键的目录和文件对于系统的正常运行至关重要,擅自修改可能导致系统不稳定甚至无法启动。以下是一些不应随意更改的关键目录和文件: 1. /etc 存放系统的所有配置文件。 · 关键文件 : o /etc/fstab:定义文件系统的挂载信息,误改可能导致系统无法挂载分区。 o /etc/passwd:存储用户账户信息,错误修改可能导致用户无法登录。 o /etc/shadow:存储用户密码的加密信息,错误修改可能破坏用户认证。 o /etc/hostname:定义主机名,修改后可能影响网络配置。 o /etc/resolv.conf:DNS 配置文件,误改可能导致域名解析失败。 2. /boot 存放系统启动相关文件,包括内核、初始化 RAM 磁盘等。 · 关键文件 : o /boot/vmlinuz:Linux 内核。 o /boot/initrd 或/boot/initramfs:初始化 RAM 磁盘文件。 o 修改风险 :误删或修改可能导致系统无法启动。 3. /bin 和 /sbin 存放基本系统命令和管理命令。 · 关键文件 : o /bin/bash:Shell 程序。 o /bin/ls 、/bin/cp 等:基本命令。 o /sbin/init 或/sbin/systemd:初始化系统的程序。 o 修改风险 :破坏基本命令可能导致系统管理和用户交互失效。 4. /usr 存放用户空间的应用程序和库文件。 · 关键目录 : o /usr/bin:用户级命令。 o /usr/sbin:高级系统命令。 o /usr/lib 和/usr/lib64:存储 32 位和 64 位库文件。 o 修改风险 :影响系统和应用程序的运行。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        使用故障类
        linux虚机内关键文件路径
      • 升级客户端
        本文介绍如何升级客户端。 操作场景 云容灾服务需要搭配客户端使用,当受保护的服务器安装的客户端不是最新版本时,您可以选择一键升级客户端至最新版本。 前提条件 该受保护的服务器已安装客户端,且客户端不是最新版本。 受保护的服务器状态为“已初始化”、“实时复制中”或“实时复制停止”。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域。 3. 在存储产品中选择“云容灾”,进入云容灾页面。 4. 在云容灾页面,单击“云上容灾”,进入保护组板块展示页面。 5. 在保护组板块展示页面,找到目标保护组,单击目标保护组板块,进入保护组页面。 6. 在保护组页面,在“受保护的服务器”页签,找到目标主机名,在操作列选择“更多>服务器操作>升级”。进入“升级容灾客户端”确认页面。 7. 确认信息后单击“确认”,服务器状态变为“客户端升级中”。 8. 当客户端版本显示最新版本时,且受保护的服务器状态恢复至升级前状态,说明升级成功。 注意 若升级过程中因服务器出错或网络等原因导致升级失败,则服务器状态从“客户端升级中”变为“升级失败”,此时您仅能执行注销操作,注销操作请参见
        来自:
        帮助文档
        云容灾 CDR
        用户指南
        管理受保护的服务器
        升级客户端
      • 将MySQL同步到MySQL
        操作步骤 本小节以MySQL>RDS for MySQL的实时同步为示例,介绍如何使用数据复制服务创建两个数据库实例之间的实时同步任务,其他存储引擎的配置流程类似。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表 同步实例信息 参数 描述 数据流动方向 选择“入云”,即目标端数据库为本云数据库。 源数据库引擎 选择“MySQL”。 目标数据库引擎 选择“MySQL”。 网络类型 此处以公网网络为示例。可根据业务场景选择公网网络、VPC网络和VPN、专线网络。 目标数据库实例 用户所创建的关系型数据库实例。 说明 目标数据库实例不支持选择只读实例。 目标数据库实例可以和源数据库选择同一个实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 此处以“全量+增量”为示例。 “全量+增量”:该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。说明选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 “增量”:增量同步通过解析日志等技术,将源端产生的增量数据同步至目标端。 标签 表 标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 同步实例创建成功后,在“源库及目标库”页面,填选源库信息和目标库信息后,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 源库信息 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 源数据库的用户名。 数据库密码 源数据库用户名所对应的密码。支持在任务创建后修改密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的,单击“连接信息”后的“修改连接信息”,在弹出的对话框中修改密码。 SSL安全连接 如启用SSL安全连接,请在源库开启SSL,并确保相关配置正确后上传SSL证书。。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 说明 源数据库IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 目标库信息 表 目标库信息 参数 描述 数据库实例名称 默认为创建同步任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 目标数据库对应的用户名。 数据库密码 目标数据库用户名对应的密码。支持在任务创建后修改密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面,单击“连接信息”后的“修改连接信息”,在弹出的对话框中修改密码。 SSL安全连接 如启用SSL安全连接,请在目标库开启SSL,并确保相关配置正确后上传SSL证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 说明 目标数据库用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 步骤 4 在“设置同步”页面,选择数据冲突策略和同步对象,单击“下一步”。 表 同步模式和对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 限速自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。流速的大小需要根据业务场景来设置,不能超过9999MB/s。 不限速对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 限速模式只对全量阶段生效,增量阶段不生效。 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 增量阶段冲突策略 该冲突策略特指增量同步中的冲突处理策略,全量阶段的冲突默认忽略。冲突策略目前支持如下形式: 忽略当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 覆盖当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 过滤DROP DATABASE 实时同步过程中,源数据库端执行的DDL操作在一定程度上会影响数据的同步能力,为了降低同步数据的风险,数据复制服务提供了过滤DDL操作的功能,目前支持默认过滤删除数据库的操作。 是,表示过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示过程中将相关操作同步到目标库。 对象同步范围 对象同步范围支持普通索引和增量DDL同步。您可以根据业务需求选择是否进行同步。 启动位点 步骤2的同步模式选择“增量”时可见,增量同步的启动位点,任务的源库日志从位点后开始获取(不含当前启动位点)。通过show master status命令获取源库位点,根据提示分别填写File、Position、ExecutedGtidSet。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,可选表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考 对象名映射。 使用非字母、非数字、非下划线等字符作为库表名称,或库表映射后名称包含中划线、井号时,名称的长度请不要超过42个字符。 说明 选择对象的时候支持对展开的库进行搜索,以便您快速选择需要的数据库对象。 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 选择的同步对象名称中不能包含空格。 步骤 5 在“数据加工”页面,根据需要选择数据加工的方式。 如果不需要数据加工,单击“下一步”。 如果需要数据加工,可选择“数据过滤”、“附加列”或“列加工”,参考数据加工章节,设置相关规则。 步骤 6 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 7 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表 任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 8 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将MySQL同步到MySQL
      • RabbitMQ触发器
        RabbitMQ触发器可以订阅分布式消息服务RabbitMQ并根据消息触发关联的函数,借此能力,使得函数可以消费指定Queue的消息,执行自定义处理逻辑。 前提条件 已创建函数。 已创建RabbitMQ实例 操作步骤 1. 登录函数计算控制台,点击目标函数,进入函数详情。 2. 选择详情下顶部的配置选项卡。 3. 在配置选项卡中,选择左边的触发器选项卡。 4. 点击创建触发器 ,在弹出的右抽屉中选择RabbitMQ触发器,配置参数解释如下: 配置项 操作 示例 触发器类型 选择RabbitMQ触发器。 RabbitMQ触发器 名称 填写自定义的触发器名称。 rabbitmqtrigger 版本或别名 默认值为LATEST,支持选择任意函数版本或函数别名。 LATEST RabbitMQ实例 选择已创建的RabbitMQ实例。 Vhost 选择订阅的目标虚拟主机。 / Queue 选择订阅的目标队列。 myqueue 调用方法 选择函数调用方式。 同步调用 :指触发器消费消息后投递到函数是同步调用,会等待函数响应后继续下一个消息投递。 异步调用:指触发器消费消息后投递到函数是异步调用,不会等待函数响应,可以快速消费事件。 User name 访问分布式消息服务RabbitMQ 版服务端时,需要传入用户名和密码进行权限认证,认证通过才允许访问服务端。 Password 访问分布式消息服务RabbitMQ 版服务端时,需要传入用户名和密码进行权限认证,认证通过才允许访问服务端。 触发器启用状态 创建触发器后是否立即启用。默认选择开启,即创建触发器后立即启用触发器。 启用 推送配置 批量推送条数:批量推送的最大值,积压值达到后立刻推送,取值范围为 [1, 10000]。 批量推送间隔:批量推送的最大时间间隔,达到后立刻推送,单位秒,取值[0,15]。默认0无需等待,数据直接推送。 推送格式:函数收到的事件格式,详情请查阅触发器事件消息格式。 重试策略 消息推送函数失败后重试的策略,共两种: 指数退避:指数退避重试,重试5次,重试周期为2,4,8,16,32(秒)。 线性退避:线性退避重试,重试5次,重试周期为1,2,3,4,5(秒)。 容错策略 当重试次数耗尽后仍然失败时的处理方式: 允许容错:当异常发生并超过重试策略配置时直接丢弃。 禁止容错:当异常发生并超过重试策略配置时继续阻塞执行。 死信队列 当容错策略为:允许容错时,可以额外开启死信队列。当开启死信队列时且异常发生并超过重试策略配置时,消息会被投递到指定的消息队列里,当前只支持投递到kafka和rocketmq 注意 请确保使用的用户名已经对选择的虚拟主机授权。
        来自:
      • 将MySQL迁移至TeleDB
        开启binlog并设置格式 binlogformatrow binlogrowimagefull expirelogsdays7 binlog日志保留时间 gtidmode on 开启gtid enforcegtidconsistency 1 defaulttimezone '+8:00' 设置时区,解决CST夏令时的问题 maxconnections 1000 设置最大连接数 4. 重启MySQL。 5. 确认待迁移对象中是否包含触发器。 > 如果将触发器作为结构的一部分,在DTS的调度逻辑上,触发器会先于全量迁移被迁移到TeleDB。这样可能会影响到全量迁移,导致数据不一致。 > 建议将触发器放到全量迁移之后,再新建一个迁移任务进行迁移。 6. 数据及业务信息统计 > 如果为非测试任务,需要在迁移之前统计业务以及迁移信息,方便进行迁移任务规划。 资源信息: 源库规格信息,例:4C8G + 500G + SSD 目标库磁盘信息:例:4C8G + 500G + SSD 网络情况:例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息: 总数据量,例如30GB 总库表数量:例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级,例:一天的binlog日志新增大概100GB 是否所有表都有主键,建议迁移前完善主键,提高性能,方便运维。 注意 如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类 规划迁移批次,例:规划分3次进行迁移,迁移时间每天晚上20:0006:00,日期为20230918至20230920。 注意 实际迁移操作请与数据库全量备份操作错开,以免交叉影响,否则可能会导致备份失败,同时影响迁移效率。 数据迁移是否可停业务,例:能/不能 增量迁移情况,例:开启增量迁移,持续时间5天 可停业务时间长度,例:服务停机时间预计48小时 业务中是否存在百万级别的大事务,例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。 操作步骤 1. 进入迁移页面单击TeleDBDCP数据库管理平台左上角,可跳转到DTS管理服务页面。 2. 数据页面列表实例开通后,存在待配置 状态实例,单击操作 列的 实例配置 ,进入配置页面。 3. 配置源库及目标库信息 1. 进入实例配置第一个步骤的配置源库及目标库信息 页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。TeleDB的连接信息可以从TeleDB管理控制台看到,选择协调节点的主节点信息进行连接。在测试环境下,源库所在主机可通过连接网线到测试样品内网,并指定IP地址后,填写相应信息。 2. 完成上述信息的填写后,单击源数据库和目标数据库的检测联通性并进行下一步按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置迁移对象及高级配置 源库和目标库连通性测试成功后,进入实例配置第二个步骤的配置迁移对象及高级配置页面,在“源库对象”中展开库后,选择要迁移的源库对象,选中后单击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查并启动。 完成迁移对象和高级配置后,单击 下一步预检查 ,进入实例配置第三个步骤的预检查并启动页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 > 检查项 检查内容 > > 待迁移表主键检查 检查待迁移表是否都存在主键。 > 存储引擎检查 检查源库中待迁移表的存储引擎是否满足要求。 > 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 > 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 > 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 > 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 > 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求 > 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 > 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 > 源库连通性检查 检查数据传输服务能否连通源数据库。 > 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 > 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 > 约束完整性检查 检查待迁移对象中所有表的约束外键所属对象是否被选中。 > 如果预检查通过,可单击【预检查】页面底部的“启动迁移”按钮,开始迁移任务。也可以直接单击 “数据迁移”页签,返回数据迁移列表。注意,如果预检查中有错误项,数据迁移将无法开始;如果有警告项,数据迁移任务可以运行,但可能会出现一些问题。 直接返回迁移列表,迁移任务将处于未启动状态。 勾选实例,然后单击 开始任务 ,直到数据迁移实例完成(没有增量迁移),或者处于增量迁移状态。运行到增量迁移后,如果显示未运行,稍等一会会进入增量运行中。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将MySQL迁移至TeleDB
      • 使用Authorization请求头验证
        签名过程 签名过程如下图所示: 下表描述了图中显示的功能。用户需要为这些函数实现代码。 功能 描述 :: Lowercase() 将字符串转换为小写。 Hex() 小写16进制编码。 SHA256Hash() 安全散列算法(SHA)加密散列函数。 HMACSHA256() 使用签名密钥,根据SHA256算法计算出的签名值。 Trim() 删除任何前导或尾随空格。 UriEncode() URI编码每个字节。UriEncode()必须强制执行以下规则: 除下列字符外,其他字符进行URI编码:'A' 'Z','a' 'z','0' '9',' ','.',''和'~'。 空格字符是保留字符,必须编码为“%20”(而不是“+”)。 每个URI编码字节由'%'和两位十六进制值组成。 十六进制值中的字母必须为大写,例如“%1A”。 除了文件名之外,对正斜杠字符'/'进行编码。例如,如果文件名称为 photos/Jan/sample.jpg,则不对名称中的正斜杠进行编码。 说明 建议用户编写自己的自定义UriEncode函数,以确保您的编码可以正常工作。 以下是Java中的示例UriEncode()函数。 public static String UriEncode(CharSequence input, boolean encodeSlash) { StringBuilder result new StringBuilder(); for (int i 0; i 'A' && ch 'a' && ch '0' && ch ))+":"+Trim( )+"n" Lowercase(Trim( ))+":"+Trim( )+"n" ... Lowercase(Trim( ))+":"+Trim( )+"n" CanonicalHeaders列表必须包括以下内容:HTTP Host标头。如果存在ContentType请求头,则必须将其添加到CanonicalHeaders列表中。所有xamz请求头,例如,如果您使用的是临时安全凭据,则需要在请求中包含xamzsecuritytoken,必须将此标题添加到CanonicalHeader列表中。 以下是CanonicalHeaders的示例,请求头名称为小写并已排序。 host:ooscn.ctyunapi.cn xamzcontentsha256:e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 xamzdate:20130708T220855Z 5. SignedHeaders是按字母顺序排序的,以分号分隔的小写请求头名称列表。列表中的请求头与用户在CanonicalHeaders字符串中包含的请求头相同。例如,对于前面的示例,SignedHeaders的值为: host;xamzcontentsha256;xamzdate 6. RequestPayload 是请求负载的SHA256哈希的十六进制值。 如果请求中没有负载,则计算空字符串的哈希值,如下所示: Hex(SHA256Hash("")) 哈希返回以下值: e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 例如:当用户使用PUT请求上传文件时,用户可以在请求体中提供文件数据。使用GET请求检索文件时,没有请求体,所以计算空字符串的哈希。 2. 创建待签名字符串 待签名的字符串格式如下: "AWS4HMACSHA256" + "n" + timeStampISO8601Format + "n" + + "n" + Hex(SHA256Hash( )) 常量字符串AWS4HMACSHA256指定用户使用的哈希算法HMACSHA256。 timeStamp是ISO 8601格式的当前UTC时间(例如20180501T000000Z)。 Scope是将生成的签名绑定到指定日期,OOS区域和服务。 date.Format( ) + "/" + + "/" + + "/aws4request" 3. 计算签名 使用SecretAccessKey作为初始哈希操作的密钥,对请求日期、区域和服务执行一系列加密哈希操作(HMAC 操作),从而派生签名密钥。伪代码如下: DateKey HMACSHA256("AWS4"+" ", " ") DateRegionKey HMACSHA256( , " ") DateRegionServiceKey HMACSHA256( , " ") SigningKey HMACSHA256( , "aws4request") 最终签名是使用签名密钥作为密钥,对待签名字符串计算得到HMACSHA256哈希值。伪代码如下: HMACSHA256(SigningKey, StringToSign) 4. 将签名信息添加到请求头 在计算签名后,将其添加到请求的HTTP请求头或查询字符串中。 将签名信息添加到Authorization标头的伪代码如下: Authorization: Credential / , SignedHeaders , Signature
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        安全策略
        用户签名验证(V4)
        使用Authorization请求头验证
      • 将DRDS同步到MySQL
        使用须知 在创建同步任务前,请务必阅读以下使用须知。 说明 建议创建单独用于DRS任务连接的数据库帐号,避免因为数据库帐号密码修改,导致的任务连接失败。 连接源或目标数据库的帐号密码修改后,请尽快修改连接信息,避免任务连接失败后自动重试,导致数据库帐号被锁定影响使用。 表使用须知 类型名称 使用和操作限制 数据库权限设置 l 源数据库DRDS帐户至少需要具备一个权限,比如SELECT;DRDS物理分片数据库帐号需要具备如下权限:SELECT、SHOW VIEW、EVENT、LOCK TABLES、REPLICATION SLAVE、REPLICATION CLIENT。 l 提供的目标数据库帐号必须拥有如下权限:SELECT、CREATE、ALTER、DROP、DELETE、INSERT、UPDATE。RDS for MySQL实例的root帐户默认已具备上述权限。 同步对象约束 l 全量同步支持数据、表结构和索引的同步。 l 源库不允许存在拆分键为timestamp类型的表。 l 源表的分库分表键要加到目标表的主键和唯一键中(也就是目标表的主键和唯一键中的列应该包含源表的分片列),避免数据冲突出现数据不一致问题。 源数据库要求 l 增量同步时,源物理分片数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 l 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 l 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 l 源分库分表中间件中的库名、表名不能包含:'<>/以及非ASCII字符。 l MySQL源数据库建议开启skipnameresolve,减少连接超时的可能性。 l 源物理分片数据库GTID状态建议为开启状态。 目标数据库要求 l 目标数据库实例的运行状态必须正常,若数据库实例是主备实例,复制状态也必须正常。 l 目标数据库实例必须有足够的磁盘空间。 l 除了MySQL系统数据库之外,当目标库和源库同名时,目标数据库中若存在与源库同名的表,则表结构必须与源库保持一致。 l 目标数据库的字符集必须与源数据库一致。 l 目标数据库的时区设置必须与源数据库一致。 l DRS同步时会有大量数据写入目标库,目标库maxallowedpacket 参数过小会导致无法写入,建议将目标库maxallowedpacket参数值设置为大于100MB。 操作须知 l 数据类型不兼容时,可能引起同步失败。 l 支持断点续传功能,在主机系统崩溃的情况下,对于无主键的表可能会出现重复插入数据的情况。 l 源数据库中存在主键或唯一键重复的数据时, 直接同步将导致目标库数据比源库少, 请务必检查并订正数据后启动同步。 l 目标库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 l 支持目标数据库中的表比源数据库多列场景,但是需要避免以下场景可能导致的任务失败。 − 目标端多的列要求非空且没有默认值,源端insert数据,同步到目标端后多的列为null,不符合目标端要求。 − 目标端多的列设置固定默认值,且有唯一约束。源端insert多条数据后,同步到目标端后多的列为固定默认值,不符合目标端要求。 l 任务创建后,目标库不能设置为只读。 l 任务创建后,源数据库不支持增加逻辑库或修改旧逻辑库关联新的RDS,否则会导致数据无法正常同步或任务失败。 l 同步过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 l 同步过程中,不允许源端DRDS正在同步的表做改变拆分键的操作;也不允许将单表/广播表改为拆分表,拆分表改为单表/广播表。 l 增量同步阶段,不支持源数据库进行恢复操作 l 增量同步阶段,支持部分DDL操作。 − 不支持 DROPDATABASE、DROPTABLE、TRUNCATETABLE、CREATEVIEW、DROPVIEW。 − 不支持使用Online DDL。 − 支持创建表,例如 : create table ddltest (id int, c1 varchar(25), primary key(id)); create table ddltestgho like ddltest; − 支持表的重命名,源表和目标表必须都在对象选择里面,例如: rename table ddltest to ddltestnew; − 支持表字段的增和改,不支持删列,例如: alter table ddltest add column c2 varchar(25); alter table ddltest modify column c1 varchar(50); alter table ddltest alter c1 set default 'xxx'; − 支持修改表索引,例如: alter table ddltest drop primary key; alter table ddltest add primary key(id); alter table ddltest add index ddltestuk(id); alter table ddltest drop index ddltestuk; − 表级同步支持增加列、修改列、增加主键和普通索引。 − 库级同步支持新建表、rename表、增加列、修改列、增加主键和普通索引。 − 新增和修改表名、列名、索引名时不能超出63字符,否则任务会失败。 − 源库无主键表增加主键的时候,必须含有第一列,否则任务会失败。 l 增量同步阶段,对同一张表或列做DDL操作,需要在业务低峰期,并且时间间隔1分钟以上。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将DRDS同步到MySQL
      • 创建MRS Hive连接器
        本章节主要介绍创建MRS Hive连接器。 MRS Hive连接适用于MapReduce服务,本教程为您介绍如何创建MRS Hive连接器。 前提条件 已创建CDM集群。 已获取MRS集群的Manager IP、管理员账号和密码,且该账号拥有数据导入、导出的操作权限。 MRS集群和CDM集群之间网络互通,网络互通需满足如下条件: −CDM集群与云上服务处于不同区域的情况下,需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP,数据源所在的主机可以访问公网且防火墙规则已开放连接端口。 −CDM集群与云上服务同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通;如果同虚拟私有云但是子网或安全组不同,还需配置路由规则及安全组规则,配置路由规则请参见《虚拟私有云》帮助文档中的“添加路由信息”章节,配置安全组规则请参见《虚拟私有云》帮助文档中的“安全组 > 添加安全组规则”章节。 −此外,您还必须确保该云服务的实例与CDM集群所属的企业项目必须相同,如果不同,需要修改工作空间的企业项目。 新建MRS hive连接 1. 在CDM集群管理界面,单击集群后的“作业管理”,选择“连接管理 > 新建连接”,进入连接器类型的选择界面,如下图所示。 图 选择连接器类型 2. 连接器类型选择“MRS Hive”后单击“下一步”,配置MRS Hive连接的参数,如下图所示。 图 创建MRS Hive连接 3. 单击“显示高级属性”可查看更多可选参数。这里保持默认,必填参数如下表所示。 表 MRS Hive连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 mrslink Manager IP MRS Manager的浮动IP地址,可以单击输入框后的“选择”来选定已创建的MRS集群,CDM会自动填充下面的鉴权参数。 127.0.0.1 认证类型 访问MRS的认证类型: SIMPLE:非安全模式选择Simple鉴权。 KERBEROS:安全模式选择Kerberos鉴权。 SIMPLE Hive版本 Hive的版本。根据服务端Hive版本设置。 HIVE3X 用户名 选择KERBEROS鉴权时,需要配置MRS Manager的用户名和密码。从HDFS导出目录时,如果需要创建快照,这里配置的用户需要HDFS系统的管理员权限。 如果要创建MRS安全集群的数据连接,不能使用admin用户。因为admin用户是默认的管理页面用户,这个用户无法作为安全集群的认证用户来使用。您可以创建一个新的MRS用户,然后在创建MRS数据连接时,“用户名”和“密码”填写为新建的MRS用户及其密码。 说明 如果CDM集群为2.9.0版本及之后版本,且MRS集群为3.1.0及之后版本,则所创建的用户至少需具备Managerviewer的角色权限才能在CDM创建连接;如果需要对MRS组件的库、表、列进行操作,还需要参考MRS文档添加对应组件的库、表、列操作权限。 如果CDM集群为2.9.0之前的版本,或MRS集群为3.1.0之前的版本,则所创建的用户需要具备Manageradministrator或Systemadministrator权限,才能在CDM创建连接。 仅具备Managertenant或Managerauditor权限,无法创建连接。 cdm 密码 访问MRS Manager的用户密码。 OBS支持 需服务端支持OBS存储。在创建Hive表时,您可以指定将表存储在OBS中。 否 运行模式 “HIVE3X”版本支持该参数。支持以下模式: EMBEDDED:连接实例与CDM运行在一起,该模式性能较好。 STANDALONE:连接实例运行在独立进程。如果CDM需要对接多个Hadoop数据源(MRS、Hadoop或CloudTable),并且既有KERBEROS认证模式又有SIMPLE认证模式,只能使用STANDALONE模式。 说明 STANDALONE模式主要是用来解决版本冲突问题的运行模式。当同一种数据连接的源端或者目的端连接器的版本不一致时,存在jar包冲突的情况,这时需要将源端或目的端放在STANDALONE进程里,防止冲突导致迁移失败。 EMBEDDED 检查Hive JDBC连通性 是否需要测试Hive JDBC连通性。 否 是否使用集群配置 用户可以在“连接管理”处创建集群配置,用于简化Hadoop连接参数配置。 否 属性配置 其他Hive客户端配置属性。 说明 单击“显示高级属性”,然后单击“添加”,您可以添加客户端的配置属性。所添加的每个属性需配置属性名称和值。对于不再需要的属性,可单击属性后的“删除”按钮进行删除。 4. 单击“保存”回到连接管理界面,完成MRS Hive连接器的配置。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        创建MRS Hive连接器
      • 查看集群状态
        本章节主要介绍如何查看集群状态。 集群列表显示MRS所有的集群,集群数量较多时,可采用翻页显示,您可以查看任何状态下的集群。 MRS作为一个海量数据管理和分析平台,数据处理能力在PB级以上。MRS支持创建多个集群,集群创建数量受弹性云主机数量限制。 集群列表默认按时间顺序排列,时间最近的集群显示在最前端。集群列表参数说明如下表所示。 现有集群:包括除了“失败”和“已删除”状态以外的所有集群。 历史集群:仅包含“已删除”的集群,目前界面只显示6个月内创建且已删除的集群,若需要查看6个月以前删除的集群,请联系支持人员。 失败任务管理:仅包含“失败”状态的任务。 −集群创建失败的任务 −集群删除失败的任务 −集群扩容失败的任务 −集群缩容失败的任务 −集群安装补丁失败的任务(仅MRS 3.x之前版本支持) −集群卸载补丁失败的任务(仅MRS 3.x之前版本支持) −集群升级规格失败的任务 集群列表参数 参数 参数说明 名称/ID 集群的名称,创建集群时设置。集群的ID是集群的唯一标识,创建集群时系统自动赋值,不需要用户设置。 :修改集群名称。 :复制集群ID。 集群版本 集群的版本号。 节点数 集群部署的节点个数,创建集群时设置。 状态 集群状态、进度信息。 创建集群进度包括: Verifying cluster parameters:校验集群参数中 Applying for cluster resources:申请集群资源中 Creating VMs:创建虚拟机中 Initializing VMs:初始化虚拟机中 Installing MRS Manager:安装MRS Manager中 Deploying the cluster:部署集群中 Cluster installation failed:集群安装失败 扩容集群进度包括: Preparing for cluster expansion:准备扩容中 Creating VM:创建虚拟机中 Initializing VM:初始化虚拟机中 Adding node to the cluster:节点加入集群中 Cluster expansion failed:集群扩容失败 缩容集群进度包括: Preparing for cluster shrink:正在准备缩容 Decommissioning instance:实例退服中 Deleting VM:删除虚拟机中 Deleting node from the cluster:从集群删除节点中 Cluster shrink failed:集群缩容失败 集群安装、扩容、缩容失败,会显示失败的原因,详情请参见创建自定义集群章节“集群创建失败” 中的“错误码表”。 创建时间 集群节点创建成功。 删除时间 集群节点停止时间,也是集群节点开始删除时间。仅“历史集群”会显示此参数。 可用区 集群工作区域下的可用区,创建集群时设置。 企业项目 集群所属的企业项目。 操作 删除:如果作业执行结束后不需要集群,可以单击“删除”,集群状态由“运行中”更新为“删除中”,待集群删除成功后,集群状态更新为“已删除”,并且显示在“历史集群”中。当MRS集群部署失败时,集群会被自动删除。 仅“现有集群”会显示此参数。 说明 一般在数据完成分析和存储后或集群异常无法提供服务时才执行删除操作。如果数据没有完成处理分析,删除集群会导致数据丢失,请谨慎操作。 按钮说明 按钮 说明 在下拉框中选择企业项目,筛选对应集群。 在下拉框中选择集群状态,筛选现有集群。 现有集群 − 所有状态:表示筛选所有的现有集群 − 启动中:表示筛选“启动中”状态的现有集群 − 运行中:表示筛选“运行中”状态的现有集群 − 扩容中:表示筛选“扩容中”状态的现有集群。 − 缩容中:表示筛选“缩容中”状态的现有集群。 − 异常:表示筛选“异常”状态的现有集群 − 删除中:表示筛选“删除中”状态的现有集群 选择“集群列表>现有集群”,单击进入“失败任务管理”页面。 Num:表示“失败”状态的任务数。 在搜索框中输入集群名称或ID,单击,搜索集群。 标签搜索 单击“标签搜索”输入待查询集群的标签,然后单击“搜索”搜索对应集群。 标签键或标签值可以通过下拉列表中选择,当标签键或标签值全匹配时,系统可以自动查询到目标集群。当有多个标签条件时,会取各个标签的交集,进行集群查询。 单击,手动刷新现有集群列表。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        集群概览
        查看集群状态
      • 创建VPN连接
        本文向您介绍如何创建企业版VPN连接。 场景描述 如果您需要将VPC中的弹性云主机和数据中心或私有网络连通,创建VPN网关、对端网关之后,需要继续创建VPN连接。 约束与限制 使用静态路由模式创建VPN连接时,使能NQA前请确认对端网关支持ICMP功能,且对端接口地址已在对端网关上正确配置,否则可能导致流量不通。 操作步骤 1. 登录管理控制台,单击“网络 > VPN”进入VPN控制台。 2. 在左侧导航栏,单击“虚拟专用网络 > 企业版VPN连接”。 3. 在“VPN连接”页面,单击“创建VPN连接”。 说明 VPN网关的两个EIP支持分别和对端网关创建一条VPN连接。VPN双连接可以很大程度提升云上云下连接的可靠性,强烈建议配置。 4. 根据界面提示配置参数,单击“立即购买”。 表VPN连接参数说明 参数 说明 取值样例 名称 VPN连接的名称,只能由中文、英文字母、数字、下划线、中划线、点组成。 vpn001 VPN网关 选择待关联的VPN网关名称。 如果您使用国密型VPN网关,且VPN网关没有绑定相关证书,请先单击右侧“上传证书”完成上传证书操作,否则VPN连接将无法建立。 vpngw001 网关IP 选择VPN网关IP。 VPN网关对接同一对端网关时,不能选择已使用过的EIP地址。 可选的网关IP 对端网关 选择对端网关信息。 如果您使用国密型网关,且对端网关没有绑定CA证书,请先参见本指南“企业版对端网关管理 > 上传对端网关证书”上传CA证书,否则VPN连接将无法建立。 说明 如果一个对端网关同时对接多个VPN网关,则VPN网关的BGP ASN和连接模式需要相同。 cgw001 连接模式 IPsec连接的模式,支持路由模式和策略模式。 静态路由模式。 根椐路由配置(本端子网与对端子网)确定哪些数据进入IPsec VPN隧道。 适用场景:对端网关之间要求互通。 BGP路由模式。 根据BGP动态路由确定哪些数据进入IPsec VPN隧道。 适用场景:对端网关之间要求互通,互通子网数量多或变化频繁、与专线互备等组网场景。 策略模式。 根椐策略规则(用户侧到VPC之间通信的数据流信息)确定哪些数据进入IPsec VPN隧道,支持以源网段和目的网段定义策略规则。 适用场景:对端网关之间要求隔离。 静态路由模式 对端子网 指需要通过VPN连接访问云上VPC的用户侧子网。 若存在多个对端子网,请用半角逗号(,)隔开。 说明 对端子网可以和本端子网重叠,但不能重合。 对端子网不能被VPN网关关联的VPC内已有子网所包含;不能作为被VPN网关关联的VPC自定义路由表的目的地址。 对端子网不能是VPC的预留网段,例如100.64.0.0/10、214.0.0.0/8。 172.16.1.0/24,172.16.2.0/24 接口分配方式 仅“连接模式”采用“静态路由模式”和“BGP路由模式”时需要配置。 说明 接口地址为VPN网关和对端网关通信的tunnel隧道IP地址。 如果对端网关的tunnel接口地址固定不可更改,请使用“手动分配”模式,并根据对端网关的tunnel接口地址设置VPN网关的tunnel接口地址。 手动分配。 仅支持在169.254.x.x/30网段(除169.254.195.x/30)范围内,配置VPN网关本端接口地址的tunnel接口地址;对端网关对端接口地址的tunnel接口地址会根据本端接口地址随机生成。 例如:本端接口地址配置为169.254.1.6/30,则对端接口地址自动配置为169.254.1.5/30。 自动分配。 VPN网关默认使用169.254.x.x/30网段对tunnel接口分配地址。 自动分配的本端接口地址/对端接口地址,可以在VPN连接页面,单击“修改连接信息”进行查看。 自动分配 本端隧道接口地址 仅“接口分配方式”采用“手动分配”时需要配置。 配置在VPN网关上的tunnel接口地址。 对端隧道接口地址 仅“接口分配方式”采用“手动分配”时需要配置。 配置在对端网关上的tunnel接口地址,该接口地址需要和对端网关实际配置的tunnel接口地址保持一致。 检测机制 仅“连接模式”采用“静态路由模式”时需要配置。 说明 功能开启前,请确认对端网关支持ICMP功能,且对端接口地址已在对端网关上正确配置,否则可能导致流量不通。 功能开启后,VPN网关会自动对对端接口地址进行NQA探测。 勾选 预共享密钥 VPN网关和对端网关的预共享密钥需要保持一致。 取值范围: 取值长度:8~128个字符。 只能包括以下几种字符,且必须包含三种及以上类型: 数字 大写字母 小写字母 特殊符号:包括“~”、“!”、“@”、“
        来自:
        帮助文档
        VPN连接
        用户指南
        企业版VPN连接管理
        创建VPN连接
      • 查询日志内容
        参数 参数类型 说明 示例 下级对象 hostid String 主机名 time String 时间 ipproto Integer IP协议 1:v4; 2:v6 proto Integer 协议 1:icmp; 6:tcp; 17:udp sip String 源IP dip String 目的IP sport Integer 源端口 dport Integer 目的端口 dir Integer 方向 1:in2out; 2:out2in appid Integer 应用id action Integer 动作, 1:pass; 2:drop ruleid Long 规则id(入侵防御/访问控制/流量日志有) level String 事件等级, 1:Low; 2:Middle; 3:High (入侵防御/访问控制日志有) origin Integer 来源, 1:基础防御 2:虚拟补丁 3:访问控制 4:黑名单 5:白名单 (入侵防御/访问控制日志有) originbytes Long 正向字节数(流量日志有) originpackets Long 正向报文数(流量日志有) responsebytes Long 应答字节数(流量日志有) responsepackets Long 应答报文数(流量日志有) origintime String 发起时间(流量日志有) terminaltime String 终止时间(流量日志有) gwlbeid String gwlbe id(入侵防御日志有) className String 攻击类型(入侵防御日志有) virus String 病毒名称 (病毒日志有) md5 String md5值 (病毒日志有)
        来自:
        帮助文档
        云防火墙(原生版)
        API参考
        API
        2023-10-16
        日志管理
        查询日志内容
      • 插件说明与使用介绍
        属性 名称 类型 必选项 默认值 有效值 描述 count integer 必须 count > 0 指定时间窗口内的请求数量阈值。 timewindow integer 必须 timewindow > 0 时间窗口的大小(以秒为单位),超过这个时间就会重置。 keytype string 可选 "var" ["var", "varcombination", "constant"] key 的类型。 key string 可选 "remoteaddr" 用来做请求计数的依据,详情参见key的使用小节。如果 key 的值为空,$remoteaddr 会被作为默认 key。 rejectedcode integer 可选 503 [200,...,599] 当请求超过阈值被拒绝时,返回的HTTP 状态码。 rejectedmsg string 可选 非空 当请求超过阈值被拒绝时,返回的响应体。 allowdegradation boolean 可选 false 当限流插件功能临时不可用时(例如,Redis 超时)是否允许请求继续。当值设置为 true 时则自动允许请求继续,默认值是 false。 showlimitquotaheader boolean 可选 true 是否在响应头中显示XRateLimitLimit 和XRateLimitRemaining (限制的总请求数和剩余还可以发送的请求数),默认值是true。 group string 可选 非空 配置同样的group 的 Route 将共享同样的限流计数器。 redishost string 当policy为redis时必填 当使用redis 限速策略时,该属性是 Redis 服务节点的地址。 redisport integer 可选 6379 [1,...] 当使用redis 限速策略时,该属性是 Redis 服务节点的端口。 redispassword string 可选 当使用redis 或者 rediscluster 限速策略时,该属性是 Redis 服务节点的密码。 redistimeout integer 可选 1000 [1,...] 当使用redis 或者 rediscluster 限速策略时,该属性是 Redis 服务节点以毫秒为单位的超时时间。 redisclusternodes array 当policy 为 rediscluster 时必填 当使用rediscluster 限速策略时,该属性是 Redis 集群服务节点的地址列表(至少需要两个地址)。 redisclustername string 当policy 为 rediscluster 时必填 当使用rediscluster 限速策略时,该属性是 Redis 集群服务节点的名称。 count说明 当使用本地计数策略,即policy设置为local时,count数值为每个网关节点的限流计数。整个集群的限流计数count 节点数; 当使用redis时,即policy设置为redis或rediscluster时,count记录在redis中,表示整个集群的全局限流计数。 key的使用说明 用来做请求计数的有效值。 key的类型 key的取值类型使用keytype标识,keytype支持三种值:"var", "varcombination", "constant" keytype为"constant"时,那么 key 会被当作常量。 keytype为"var"时, key 会被当作变量名称。 keytype 为 "varcombination",那么 key 会当作变量组。比如如果设置 "remoteaddr consumername" 作为 key,那么插件会同时受 remoteaddr 和 consumername 两个变量的约束。 例如,可以使用主机名(或服务器区域)作为关键字,以便限制每个主机名规定时间内的请求次数。我们也可以使用客户端地址作为关键字,这样我们就可以避免单个客户端规定时间内多次的连接我们的服务。 当前接受的 key如下: key keytype为var时填写 keytype为varcombination时填写 "remoteaddr"(客户端 IP 地址) remoteaddr $remoteaddr "serveraddr"(服务端 IP 地址) serveraddr $serveraddr 请求头中的值"XForwardedFor" httpxforwardedFor $httpxforwardedFor 请求头中的值"XRealIP" httpxrealip $httpxrealip "consumername"(consumer 的 username) consumername $consumername "serviceid" serviceid $serviceid
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        插件市场
        插件说明与使用介绍
      • 操作策略管理
        操作步骤 操作策略仅以下29节点支持配置: 上海6、北京4、内蒙5、西安3、重庆2、拉萨3、南京3、雄安2、晋中、郴州2、成都4、杭州2、上海7、西安4、福州3、泉州1、芜湖2、北京5、中卫2、贵州3、九江、内蒙6、 武汉4、佛山3、福州4、昆明2、海口2、保定、辽阳1。 1.登录管理控制台。 2.进入RabbitMQ管理控制台。 3.在实例列表页在操作列,目标实例行点击“管理”。 4.点击“集群管理”后点击“操作策略”到达操作策略管理页面,点击“新建”按钮。 5.点击“新建”后出现以下界面,选择虚拟主机,添加策略名、匹配符号,和策略内容。 Queues参数 说明 Message TTL 消息过期时间:number型(单位:ms) Auto expire 队列过期时间,过期后队列自动删除:number型(单位:ms) Max length 队列能保存的最大消息数:number型(单位:个) Max length bytes 队列能保存的最大消息量:number型(单位:字节) Overflow behaviour 超过队列的最大设定值后消息接收策略: drophead:删除头部消息,一般就是最早发送的消息,保证队列可用 rejectpublish:拒绝接受新的消息,保证消息不丢失 6.在目标操作策略所在行,点击“删除”或“修改”即可删除或修改当前操作策略。
        来自:
      • 操作类
        RabbitMQ支持双向认证吗? 不支持。 RabbitMQ实例是否支持扩容? 不支持。 RabbitMQ实例是否支持修改可用区? 不支持,您可以重新购买实例,以满足可用区要求。 RabbitMQ客户端连接报错原因分析? RabbitMQ客户端连接失败,可能原因包括地址、端口填错、用户名或者密码填错。 连接地址不正确 Exception in thread "main"java.net.SocketTimeoutException: connect timed out at java.net.PlainSocketImpl.socketConnect(NativeMethod) at java.net.AbstractPlainSocketImpl.doConnect(AbstractPlainSocketImpl.java:350) 端口不正确 Exception in thread "main"java.net.ConnectException:Connection refused (Connection refused) at java.net.PlainSocketImpl.socketConnect(NativeMethod) at java.net.AbstractPlainSocketImpl.doConnect(AbstractPlainSocketImpl.java:350) at java.net.AbstractPlainSocketImpl.connectToAddress(AbstractPlainSocketImpl.java:206) 用户名或密码错误 Exception in thread "main"com.rabbitmq.client.AuthenticationFailureException: ACCESSREFUSED Login was refused using authentication mechanism PLAIN. For details see the broker logfile. at com.rabbitmq.client.impl.AMQConnection.start(AMQConnection.java:351) at com.rabbitmq.client.impl.recovery.RecoveryAwareAMQConnectionFactory.newConnection(RecoveryAwareAMQConnectionFactory.java:64) RabbitMQ实例是否支持不同的子网? 支持。 客户端与实例在相同VPC内,可以跨子网段访问。同一个VPC内的子网默认可以进行通信。 客户端与实例在不同VPC时,需建立VPC对等连接。 客户端是否可以连接同个RabbitMQ下多个Vhost? 客户端可以连接同个RabbitMQ下多个Vhost。 Vhost(Virtual Hosts虚拟主机)是RabbitMQ的基本特性,每个Vhost相当于一个独立的虚拟消息服务器,每个Vhost数据目录不同,拥有自己的队列、交换器和权限控制机制。性能上,连接多个Vhost和单独使用一个Vhost差别不大。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        操作类
      • 管理分组参数
        属性编码 属性名称 允许值 默认值 支持在线加载 zkUrl 向LVS注册的ZooKeeper地址,用于组件之间通讯。 说明 该参数暂未开放使用。 IP地址 无 否 clientFoundRows 控制当执行UPDATE语句时,MySQL服务器与DBProxy接收和处理受影响的行数的行为。 true为匹配行数,而不是被修改的行数。 true/false true 否 clientIgnoreSigpipe 阻止MySQL客户端安装SIGPIPE信号处理器,主要用于当应用程序已经安装该处理器的时候,由DBProxy屏蔽相关信号,避免相关信号与整体系统的冲突。 true/false true 否 clientInteractive MySQL服务器与DBProxy关闭不活动连接时,采用交互超时参数或等待超时参数行为。 true为采用交互超时参数。 true/false true 否 clientNoSchema 不允许 数据库名.表名.列名 这样的语法。 true/false false 否 clientIgnoreSpace MySQL服务器与DBProxy之间交互是否忽略函数名后的空格,true为忽略函数名后的空格。 true/false false 否 frontWriteQueueSize 数据汇集时的应用系统到DBProxy写队列大小。 12147483647 32 是 enableDataMergeLimit 开启数据归并排序限制。 true/false true 是 dataMergeLimit 数据归并排序限制行数。 12147483647 10000 是 frontConnectionIdleCheckThreshold 应用侧与DBProxy连接空闲检测阈值(个),默认值为0,此时,只要有应用系统到DBProxy连接超时,就将其杀死。 02147483647 0 是 writeQueueLimit DBProxy返回数据给应用侧写队列的限制。 true/false true 是 writeQueueStop DBProxy返回数据给应用侧写队列的最大长度。 12147483647 4096 是 writeQueueRecover 恢复写队列阈值。 12147483647 256 是 enableClusterStatusCollector 是否开启DBProxy集群状态信息采集。 true/false false 是 clusterStatusCollectPeriod 集群状态信息采集间隔,单位:毫秒。 10002147483647 5000 否 clusterStatusHistoryKeptDays 集群历史状态信息保留天数。 1365 1 是 sslEnable SSL功能开关: true:启用。 false:禁用。 true/false false 否 zkPath 负载均衡SLB的ZooKeeper的路径,用于组件之间通讯。 说明 该参数暂未开放使用。 字符串 否 vip 负载均衡SLB的虚拟IP,用于组件之间通讯。 说明 该参数暂未开放使用。 IP地址 否 sqlProtectorHandle SQL黑名单处理方式,需要为2.4.1以上版本生效: Ignore:不记录不处理。 Reject:记录且拒绝。 Audit:记录且不处理。 ignore/reject/audit ignore 是 autoAddSqlProtectorBlacklist 发现过载语句(由参数topWindowExecuteTimeThreshold、runningSlowSqlThreshold两个参数定义的语句)时,是否自动加入黑名单。 true/false false 是 enableRunningSlowSqlDetect 开启超慢SQL探测,开启后runningSlowSqlThreshold、runningSlowSqlDetectInterval才生效。 true/false true 是 runningSlowSqlThreshold 正在执行的语句执行超过此时间算超慢SQL,单位:秒。 12147483647 15 是 runningSlowSqlDetectInterval 正在执行的超慢语句探测间隔,单位:秒。 12147483647 5 是 maxSqlProtectorBlacklist 过载保护SQL黑名单最大数量。 12147483647 10 是 topWindowCycle TOP高危(耗时较高)语句探测周期,单位:毫秒。 12147483647 60000 否 topWindowExecuteTimeThreshold SQL执行超过此时间,进入高危语句计数,单位:毫秒。 12147483647 500 是 insertHint DBProxy到存储节点发送SQL语句时,附加指纹Hint。 true/false false 是 killSelect 当应用侧异常关闭时,如果最后一次执行的是select语句,该变量控制是否发送kill语句杀掉MySQL连接。 true/false true 是 enableEncrypt 是否开启字段加解密。 true/false false 是 enableProxyRWSplit 是否开启DBProxy组件侧读写分离。 true/false false 是 enableDdlEngine 是否开启DDL统一执行框架: true:启用统一执行框架执行DDL。 false:采用旧执行模式执行DDL。 true/false true 是 useIndex 是否使用全局索引功能,需先开启Giserver服务,否则开启后无效。 true/false false 是 autoIndex 是否使用全局索引透明化功能。 true/false false 是 optimizeTransactionSelect 事务中select语句数据库连接释放优化。 true/false true 是 one2manyIndexThreshold 一对多索引阈值。 建议不超过分片数量,超过分片数量时,有概率会退化到广播。 5 是 processors 多路I/O复用反应器个数。DBProxy可以通过轮询检测哪些频道有就绪的I/0事件,然后集中处理这些事件,以减少线程数量、处理大并发连接,减少阻塞等。 建议设置为CPU核心数 4 是 processorExecutor 应用系统到DBProxy逻辑处理线程池大小,单位:个。 建议设置为CPU核心数的四倍 32 是 idleTimeout 应用系统到DBProxy连接空闲超时时间,单位:毫秒。 17200000 1800000 是 bindIp DBProxy服务监听运行时端口暴露监控的主机对应网卡IP地址。 0.0.0.0 默认代表监听所有网卡,建议采用默认值。 默认0.0.0.0 0.0.0.0 是 zkDigest 负载均衡SLB的zookeeper的digest模式设置,用于组件之间通讯。 说明 该参数暂未开放使用。 SLB的zk digest dataNodeIdleCheckPeriod DBProxy到存储节点MySQL连接池清理时间间隔,单位:毫秒。 17200000 300000 是 processorBufferChunk DBProxy的BufferPool中chunk大小,单位:Byte。 processorBufferChunk乘processorBufferPool应小于服务启动内存 4096 是 processorBufferPool DBProxy的BufferPool中chunk个数。 processorBufferChunk乘processorBufferPool应小于服务启动内存 16384000 是 maxPacketSize DBProxy与MySQL通讯数据包最大长度,单位:M。 不超过16 16 是 charset DBProxy与应用系统、后端MySQL的连接初始化字符集。 utf8,utf8mb4 utf8 是 sqlExecuteTimeout DBProxy的SQL执行超时的时间,与MySQL的maxexecutiontime参数功能相同,单位:毫秒。 17200000 300000 是 processorCheckPeriod DBProxy到存储节点MySQL连接状态检查间隔时间,单位:毫秒。 17200000 1000 是 dataNodeHeartbeatPeriod DBProxy到存储节点MySQL心跳间隔时间,单位:毫秒。 17200000 10000 是 enableLargeDataMerge 开启大数据流式汇聚功能。 true/false false 是 enableOperationRecord 是否开启运维日志。 true/false false 是 frontendConnPrintInterval 应用系统到DBProxy连接数打印间隔,单位:毫秒。 17200000 60000 否 backendConnPrintInterval DBProxy到存储节点连接数打印间隔,单位:毫秒。 17200000 60000 否 useStatementConditionExtract DBProxy使用statement方案解释去做条件抽取,用于快速进行SQL解析。 true/false true 是 maxExecutionTime SELECT最大执行时间,单位:毫秒。 07200000 设置为0,表示不限制 0 是 enablePrepareStatement DBProxy支持PrepareStatement预编译SQL语句接口。 true/false true 是
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        参数管理
        管理分组参数
      • 数据安全概览
        总览页面分为云服务全景图(资产地图)、数据采集安全、数据传输/存储安全、数据使用安全和数据交换/删除安全共五大板块,实时呈现了用户资产的具体情况。 前提要求 已完成资产访问的授权,参考云资产委托授权/停止授权进行操作。 已完成添加数据库资产,参考数据库资产清单进行操作。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择“安全> 数据安全中心”,进入数据安全中心总览界面。 4. 查看数据安全中心服务的总览—云服务全景图。 提供数据资产地图,帮助客户建立数据资产的全景视图,可视化呈现数据资产分布、数据敏感程度、当前的风险级别。 梳理云上数据资产:自动扫描并梳理云上数据资产,地图化展示资产分布,帮助用户解决数据在哪里的问题。 敏感数据展示:基于DSC的三层数据识别引擎、预置合规规则、自然语义识别技术、文件相似度检测技术,对数据资产进行分类分级。 对数据资产按照“风险VPC数”、“风险安全组数”、“风险主机数”、“风险RDS数”、“风险OBS数”进行分类展示。 每类资产按照“高危”、“中危”、“低危”、“未识别风险”对敏感数据进行分级定位。 风险监控和预警:基于风险识别引擎,对数据资产进行风险监控,展示每类资产的风险分布,并预警。 说明 将鼠标移动到数据资产图标处,可查看资产相关信息。 单击数据资产图标,在界面的右侧弹框中可详细查看该资产的“基本信息”、“风险信息”或者“风险安全组规则”等信息。 5. 查看数据安全中心服务的总览—数据采集安全。 DSC根据敏感数据规则对敏感数据进行识别和敏感等级分类,您可以在总览页面查看您资产中不同风险等级的数据的分布情况。 基于敏感字段在文件中出现的累计次数和敏感字段关联组来判断文件的敏感性,并根据文件的敏感程度将其划分为四个等级:“未识别风险”、“低风险”、“中风险”和“高风险”。风险等级依次递增。具体风险等级情况说明: 未识别风险:0级 低风险:1~3级 中风险:4~7级 高风险:8~10级 在柱状图中,不同高度代表该风险等级的资产数量。将鼠标箭头放置在柱状图上,可查看该风险等级的资产数量。 6. 查看数据安全中心服务的总览—数据传输/存储安全。 数据传输安全:DSC统计了以下可能存在传输安全的项,您可以直接单击具体项的名称,查看详细情况。 VPN连接数:您的资产中存在已创建的虚拟专用网络,具体的请参考《VPN服务用户指南》。 云专线连接数:您的资产中存在已创建的云专线物理连接,具体的请参考《云专线用户指南》。 ELB未采用加密通信的监听器:添加监听器时,未使用加密通信HTTPS协议的监听器数量的统计,建议您采用HTTS协议进行加密通信,具体的操作请参见修改监听器。 SSL证书订阅:您的资产中存在已购买或者已上传的证书数量,了解SSL证书请参考《SSL证书管理用户指南》。 WAF未采用加密通信的域名:WAF中添加域名时,未使用加密传输HTTPS协议的域名数量的统计,建议您采用HTTPS协议进行加密通信,具体的操作请参见修改服务器信息。 数据存储安全:该模块为您罗列了存在未加密的对象桶,为了防止您的资产存在不必要的存储安全,建议您单击对象桶名称,前往OBS界面,对未加密的对象桶进行加密。 7. 查看数据安全中心服务的总览—数据使用安全。 该模块统计了“近30分钟”、“近3小时”、“近24小时”、“近7天”、“近30天”内的数据使用安全信息。 未处理异常事件:按“数据访问异常”、“数据操作异常”、“数据管理异常”所占比例进行展示。同时,展示了异常事件总数、违例确认总数和违例排除总数。 单击“未处理异常事件”中的其中一个颜色区域,可查看指定数据异常占比。 当不需要展示某种类型的异常事件时,单击事件分布图右侧攻击类型对应的颜色方块,取消在事件分布圆环中的展示。 Top5访问源IP:前5的访问源IP的统计。 Top5被访问高风险对象:被访问的对象中,排在前5的高风险对象。 Top5访问帐号:前5的访问帐号的统计。 8. 查看数据安全中心服务的总览—数据交换/删除安全。 数据交换安全:展示了已创建的“静态脱敏任务数”以及“水印API调用次数”,如何创建数据脱敏任务请参考创建数据脱敏任务。 数据删除安全:DSC为您统计了数据库、ECS、OBS资产的当日删除数和总删除数。
        来自:
        帮助文档
        数据安全中心
        用户指南
        数据安全概览
      • MySQL->RDS for MySQL
        本节主要介绍MySQL>RDS for MySQL 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。如果迁移不可避免业务高峰期,推荐使用迁移限速功能,即“流速模式”选择“限速”。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 由于MySQL固有特点限制,CPU资源紧张时,存储引擎为Tokudb的表,读取速度可能下降至10%。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用表、视图引用视图、存储过程/函数/触发器引用视图/表、主外键关联表等。 不支持外键级联操作。 由于MySQL本身限制,若源库的一次性事件(EVENT)设定的触发时间在迁移开始前,该事件(EVENT)不会迁移到目标库。 多对一场景下,创建迁移任务时,目标库读写设置需要跟已有任务设置为一致。 增量迁移会过滤创建用户、删除用户及修改用户权限的DDL操作。 由于无主键表缺乏行的唯一性标志,网络不稳定时涉及少量重试,表数据存在少量不一致的可能性。 不支持目标数据库恢复到全量迁移时间段范围内的PITR操作。 若专属计算集群不支持4vCPU/8G或以上规格实例,则无法创建迁移任务。 源库和目标库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 操作须知 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、索引、视图等,这样可能会引起任务迁移失败。 在结束迁移任务时,将进行所选事件(EVENT)和触发器(TRIGGER)的迁移。请确保任务结束前,不要断开源和目标数据库的网络连通性,并在结束任务时关注迁移日志上报的状态,达到数据库完整迁移效果。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移任务目标数据库可以设置“只读”和“读写”。 只读:目标数据库实例将转化为只读、不可写入的状态,迁移任务结束后恢复可读写状态,此选项可有效的确保数据迁移的完整性和成功率,推荐此选项。 读写:目标数据库可以读写,但需要避免操作或接入应用后会更改迁移中的数据(注意:无业务的程序常常也有微量的数据操作),进而形成数据冲突、任务故障、且无法修复续传,充分了解要点后可选择此选项。 增量迁移场景下,不支持源数据库进行恢复到某个备份点的操作(PITR)。 增量迁移过程中,若源库存在分布式事务,可能会导致迁移失败。 为了保持数据一致性,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作)。 增量迁移阶段,支持断点续传功能,在主机系统崩溃的情况下,对于非事务性的无主键的表可能会出现重复插入数据的情况。 迁移过程中,不允许源库写入binlog格式为statement的数据。 迁移过程中,不允许源库执行清除binlog的操作。 选择表级对象迁移时,增量迁移过程中不支持对表进行重命名操作。 源库不支持阿里云RDS的只读副本。 如果源数据库为自建库,并且安装了Percona Server for MySQL 5.6.x或Percona Server for MySQL 5.7.x时,内存管理器必须使用Jemalloc库,以避免因系统表频繁查询带来的内存回收不及时,并最终导致数据库Out of Memory问题。 迁移过程中,不允许在源库创建库名为iblogfile的数据库。 建议将expirelogday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MySQL->RDS for MySQL
      • 云数据库GaussDB(for MySQL)支持的事件列表
        云数据库GaussDB(for MySQL)支持的事件列表 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 实例增量备份业务失败 TaurusIncrementalBackupInstanceFailed 重要 实例增量备份失败产生的事件,一般是管理节点到实例网络或者实例到OBS存储的网络异常,或者实例备份环境异常。 提交工单。 无法完成实例备份业务操作。 添加只读节点失败 addReadonlyNodesFailed 重要 创建实例只读节点失败产生的事件,一般是底层资源耗尽导致。 检查并释放资源后重新创建。 无法创建数据库实例只读节点。 创建实例业务失败 createInstanceFailed 重要 创建实例失败产生的事件,一般是配额大小不足,底层资源耗尽导致。 检查配额大小,释放资源后重新创建。 无法创建数据库实例。 主备切换异常 activeStandBySwitchFailed 重要 主备切换异常主要是由于网络、物理机有某种故障导致只读节点没有接管主节点的业务,短时间内会恢复到原主节点继续提供服务。 提交工单。 无法完成主备切换(只读升主)。 规格变更业务失败 flavorAlterationFailed 重要 规格变更失败产生的事件,一般是配额大小不足,底层资源耗尽导致。 提交工单。 无法完成规格变更。 实例运行状态异常 TaurusInstanceRunningStatusAbnormal 重要 实例运行状态异常产生的事件,可能原因是实例进程故障,或者实例到DFV存储间通信问题。 提交工单。 实例异常,业务可能受损。 实例运行状态异常已恢复 TaurusInstanceRunningStatusRecovered 重要 实例运行状态异常后恢复产生的事件。 观察业务运行情况。 无。 节点运行状态异常 TaurusNodeRunningStatusAbnormal 重要 运行节点状态异常产生的事件,可能原因是节点进程故障,或者节点到DFV存储间通信问题。 观察实例状态和业务运行情况。 节点异常,可能触发只读升主。 节点运行状态异常已恢复 TaurusNodeRunningStatusRecovered 重要 节点运行状态异常后恢复产生的事件。 观察业务情况。 无。 删除只读节点失败 TaurusDeleteReadOnlyNodeFailed 重要 删除只读节点失败产生的事件,可能原因是管理面到实例节点通信异常或者请求IaaS删除虚机失败。 提交工单。 无法完成删除只读节点操作。 实例重置密码失败 TaurusResetInstancePasswordFailed 重要 实例重置密码失败产生的事件,可能原因是管理面到实例通信异常或者实例状态异常件。 检查确认实例状态后重试,未解决则提交工单。 无法完成实例重置密码操作。 实例重启失败 TaurusRestartInstanceFailed 重要 实例重启失败产生的事件,可能原因是管理面到实例通信异常或者实例状态异常件。 检查确认实例状态后重试,未解决则提交工单。 无法完成实例重启操作。 恢复到新实例失败 TaurusRestoreToNewInstanceFailed 重要 恢复到新实例失败产生的事件,一般是新创建实例配额大小不足,底层资源耗尽导致或者数据恢复逻辑出错。 如果是新创建实例失败,检查配额大小,释放资源后重新恢复到新实例,其他情况提交工单。 无法完成恢复到新实例。 实例绑定EIP失败 TaurusBindEIPToInstanceFailed 重要 实例绑定EIP失败产生的事件,绑定任务执行错误。 提交工单。 无法完成绑定EIP操作。 实例解绑EIP失败 TaurusUnbindEIPFromInstanceFailed 重要 实例解绑EIP失败产生的事件,绑定任务执行错误。 提交工单。 无法完成解绑EIP操作。 实例修改参数失败 TaurusUpdateInstanceParameterFailed 重要 实例修改参数失败产生的事件,一般是管理节点到实例网络异常,或者实例状态异常。 检查确认实例状态后重试,未解决则提交工单。 无法完成实例修改参数操作。 实例参数组应用失败 TaurusApplyParameterGroupToInstanceFailed 重要 实例参数组应用失败产生的事件,一般是管理节点到实例网络异常,或者实例状态异常。 检查确认实例状态后重试,未解决则提交工单。 无法完成实例参数组应用操作。 实例全量备份业务失败 TaurusBackupInstanceFailed 重要 实例全量备份失败产生的事件,一般是管理节点到实例网络或者实例到OBS存储的网络异常,或者实例备份环境异常。 提交工单。 无法完成实例备份业务操作。 实例发生主备倒换 TaurusActiveStandbySwitched 重要 实例发生主备倒换,主要是由于主节点的网络,物理机以及数据库运行出现故障时,GaussDB HA系统会按照倒换优先级将1个只读节点升为主机,以持续提供服务。 收到事件后,查看业务运行是否正常。看是否继续收到“实例只读升主业务失败”告警。 倒换时业务连接会短时间中断,升主完成后可重新连接数据库。 数据库设置为只读模式 NodeReadonlyMode 重要 数据库设置为只读状态,只支持查询类操作。 提交工单。 数据库设置只读状态后,所有写业务返回失败。 数据库设置为读写模式 NodeReadWriteMode 重要 数据库设置为读写状态 提交工单。 无 实例容灾切换 DisasterSwitchOver 重要 实例故障不可用,通过主备切换保证数据库继续对外提供服务。 联系技术支持团队处理。 访问数据库的业务出现闪断,高可用服务通过切换机制保证新机器升主继续对外提供服务。 数据库进程重新启动 TaurusDatabaseProcessRestarted 重要 一般是内存不足、负载过高导致数据库进程停止。 通过云监控的数据,查看是否有内存飙升、CPU长期过高等的情况,可以选择提升CPU内存规格或者优化业务逻辑。 数据库进程挂掉的时候,该节点业务中断。高可用服务会自动拉起进程,尝试恢复业务。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        云数据库GaussDB(for MySQL)支持的事件列表
      • 1
      • ...
      • 180
      • 181
      • 182
      • 183
      • 184
      • ...
      • 188
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      镜像服务 IMS

      轻量型云主机

      AI Store

      模型推理服务

      人脸属性识别

      通用型OCR

      营业执照识别

      推荐文档

      购买类

      设置告警规则

      产品功能

      全面了解天翼云②:Linux下修改MTU值

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号