活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼迁移_相关内容
      • 什么是Prometheus监控
        天翼云 Prometheus 监控服务对接开源 Prometheus 生态,提供多种开箱即用的预置监控大盘,且提供全面托管的 Prometheus 服务。 什么是Prometheus实例 Prometheus实例是天翼云可观测监控服务中用于管理数据采集、存储与分析的核心逻辑单元,包含预配置的数据采集规则、时序数据库、可视化监控面板及告警策略等功能模块。 产品优势 集成便捷:提供一站式解决方案,显著降低可观测系统的部署与运维复杂度。 成本可控:相较自建方案,天翼云可观测Prometheus监控服务具备更优的性价比优势。 生态融合:深度集成天翼云容器服务,实现无缝对接。 专业护航:享有天翼云官方提供的专业技术支持体系。 注意 目前Prometheus监控服务仅于华东1、华南2、西南1上线。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        产品概述
        什么是Prometheus监控
      • 天翼云CT-RDS MySQL迁移至自建人大金仓
        本环节为您介绍 天翼云CTRDS MySQL迁移至自建人大金仓任务配置。 前提条件 自建人大金仓目标端版本为KingbaseESV7、V8版本 目标端权限要求 迁移模式 所需权限 全量迁移 数据库模式的owner角色 结构迁移 数据库模式的owner角色 增量迁移 用户为超级用户或者复制角色 稽核修复 数据库模式的owner角色 目标端配置请参照自建MySQL迁移至自建人大金仓。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        天翼云CT-RDS MySQL为源的迁移任务配置
        天翼云CT-RDS MySQL迁移至自建人大金仓
      • 将Oracle迁移到TeleDB
        DTS CONTAINERALL; GRANT EXECUTE ON DBMSLOGMNRD TO C DTS CONTAINERALL; oracle 12c关闭CDB模式 如果仅作测试用可直接赋予最高权限,用SYS用户登录Oracle,如下创建DTS迁移用户: CREATE USER DTS IDENTIFIED BY " " DEFAULT TABLESPACE USERS QUOTA UNLIMITED ON USERS; GRANT DBA TO DTS; GRANT SELECT ON SYS.OBJ$ TO DTS; GRANT SELECT ON SYS.COL$ TO DTS; 如果需要授予数据迁移用户的精准权限,用SYS用户登录Oracle,如下创建DTS迁移用户: 要求该用户必须是CDB下的用户,且授权的权限必须在所有容器内都具备 CREATE USER DTS IDENTIFIED BY " " DEFAULT TABLESPACE USERS QUOTA UNLIMITED ON USERS; GRANT CREATE SESSION TO DTS; GRANT SET CONTAINER TO DTS; GRANT FLASHBACK ANY TABLE TO DTS; GRANT SELECT ANY TABLE TO DTS; GRANT INSET ANY TABLE TO DTS; GRANT UPDATE ANY TABLE TO DTS; GRANT DELETE ANY TABLE TO DTS; GRANT CREATE ANY TABLE TO DTS; GRANT DROP ANY TABLE TO DTS; GRANT COMMENT ANY TABLE TO DTS; GRANT LOCK ANY TABLE TO DTS; GRANT CREATE SEQUENCE TO DTS; GRANT SELECT ANY SEQUENCE TO DTS; GRANT SELECT ANY TRANSACTION TO DTS; GRANT SELECT ANY DICTIONARY TO DTS; GRANT SELECT ON SYS.OBJ$ TO DTS; GRANT SELECT ON SYS.COL$ TO DTS; GRANT SELECTCATALOGROLE TO DTS; GRANT EXECUTECATALOGROLE TO DTS; GRANT LOGMINING TO DTS; GRANT EXECUTE ON DBMSLOGMNR TO DTS; GRANT EXECUTE ON DBMSLOGMNRD TO DTS; 2. 创建目标库DTS用户 如果仅作测试,可直接使用TeleDB最高权限的用户root。 如果需要使用精准权限的用户,用root用户登录TeleDB,如下创建DTS迁移用户: CREATE USER dts WITH ENCRYPTED PASSWORD ' '; GRANT CREATE, TEMPORARY, CONNECT ON DATABASE TO dts; 如果要做增量迁移且迁移的表包含外键,那么除了上述权限外,还要保证该用户具有在会话级别执行SET sessionreplicationrole 'replica'的权限。可登录TeleDB控制台,将该参数设置并重启。 3. 如果有增量迁移,需按照如下方法开启Oracle的归档日志 非RAC模式: SELECT name,logmode from V$DATABASE; 如果没有开启,使用sqlplus且用SYS用户以sysdba方式登录后,依次执行以下命令: SHUTDOWN IMMEDIATE; STARTUP MOUNT; ALTER DATABASE ARCHIVELOG; ALTER DATABASE OPEN; RAC模式: 在RAC ORACLE 的某一个节点的 shell 中,关闭、启动、挂载某一个数据库: srvctl stop database d srvctl start database d o mount 使用DBA 权限账号登陆该数据库,并开启归档日志: alter database archivelog; 在RAC ORACLE 的某一个节点的 shell 中, 重启数据库: srvctl stop database d srvctl start database d 4. 如果有增量迁移,需开启Oracle的详细补充日志 使用以下命令,确认supplemental logging 是否开启: SELECT supplementallogdatamin, supplementallogdatapk, supplementallogdataall FROM V$DATABASE; 如果三列存在NO,那么先开启补充最小日志supplementallogdatamin: ALTER DATABASE ADD SUPPLEMENTAL LOG DATA; 开启全补充日志,增加ALL、主键、Unique Index: ALTER DATABASE ADD SUPPLEMENTAL LOG DATA(ALL, PRIMARY KEY, UNIQUE) COLUMNS; 5. 确保所有容器处于打开状态 如果有增量迁移,且CDB模式开启,且有多个容器数据库,则要保证这写可插拔的容器数据库处于打开状态,不然无法启动增量迁移。 注意必须用SYS用户执行 SELECT conid, name, openmode, restricted FROM v$pdbs; 以上查询结果中,除了SEED容器外,OPENMODE字段的值必须为READ WRITE。 6. 确认迁移对象中是否存在无主键表 如果勾选增量迁移,迁移对象中不能包含无主键表: 替换 YOURSCHEMANAME 为你的模式名 SELECT t.tablename FROM alltables t LEFT JOIN allconstraints c ON t.owner c.owner AND t.tablename c.tablename AND c.constrainttype 'P'WHERE t.owner ' 使用以上查询语句可以筛选出某个schema下的所有无主键表,将这些表排除于增量迁移之外。 7. 确认归档日志保留时间 如果勾选增量迁移,为了避免增量迁移过程中由于一些故障导致同步中断的情况,需要至少保留37天的归档日志来确保处理这些情况的窗口期。否则,可能导致无法将同步从故障中恢复。 RMAN> SHOW RETENTION POLICY; 8. 确认待迁移对象中是否包含触发器 如果将触发器作为结构的一部分,在DTS的调度逻辑上,触发器会先于全量迁移被迁移到TeleDB。这样可能会影响到全量迁移,导致数据不一致。 建议将触发器放到全量迁移之后,再新建一个迁移任务进行迁移。 9. 数据及业务信息统计 如果为非测试任务,需要在迁移之前统计业务以及迁移信息,方便进行迁移任务规划。 资源信息: 源库规格信息,例如4C8G + 500G + SSD 目标库磁盘信息,例如4C8G + 500G + SSD 网络情况,例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息: 总数据量,例如30GB 总库表数量,例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级,例如:一天的归档日志新增大概100GB 是否所有表都有主键,建议迁移前完善主键,提高性能,方便运维。如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类: 数据迁移是否可停业务,例:能/不能 增量迁移情况,例:开启增量迁移,持续时间5天 可停业务时间长度,例:服务停机时间预计48小时 业务中是否存在百万级别的大事务,例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。 操作步骤 1. 订购DTS数据迁移实例。 2. 进入实例配置页面。DTS实例创建成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面进行配置: 3. 配置源库及目标库信息。 1. 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 2. 完成上述信息的填写后,单击源数据库和目标数据库的测试连接按钮进行数据库连接测试,检查数据库能否正常连接。 3. 注意 ORACLE如果要进行增量同步,不能使用SYS/SYSTEM系统用户。 4. 配置迁移对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置迁移对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,选中后单击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查和启动迁移。 完成迁移对象和高级配置后,单击“下一步预检查”,进入实例配置第三个步骤的【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查内容 检查点 检查源库连通性 源库网络能够连通 检查目标库连通性 目标库网络能够连通 检查源库用户权限 若不包含增量,检查提供的源库账号是否具有以下权限: CREATE SESSION;CATALOGROLE、ANY DICTIONARY、待迁移表的select权限若包含增量,还需要检查以下权限:SET CONTAINER,FLASHBACK ANY TABLE,SELECT ANY TABLE,SELECTCATALOGROLE,EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,CREATE TABLE,LOCK ANY TABLE,CREATE SEQUENCE,EXECUTE ON DBMSLOGMNR,EXECUTE ON DBMSLOGMNRD,SELECT ANY DICTIONARY,SELECT ON SYS.OBJ,SELECT ON SYS.COL,CREATE ANY TABLE,COMMENT ANY TABLE,DROP ANY TABLE 检查目标库用户权限 检查提供的目标库账号是否具有登录信息database下创建schema的权限。 检查目标库PostgreSql版本 目标库的PostgreSql版本是否不低于9.2 检查待迁移表是否存在主键 检查待迁移表是否都存在主键,只有全量迁移时,如果发现存在没有主键的表,将提出警告(无主键的表可能会导致数据不一致);勾选了增量迁移,如果发现存在没有主键的表,预检查将不通过(增量迁移功能依赖主键) 检查待迁移表约束完整性 检查待迁移表依赖的表对象是否包含在待迁移对象中,若存在依赖的对象未被选择,检查不通过 检查源库最大连接数 检查源库最大连接数是否不小于300,若最大连接数小于300,给出告警 检查目标库最大连接数 检查目标库最大连接数是否不小于300,若最大连接数小于300,给出告警 检查同名对象存在性 检查目标库中是否存在和待迁移库同名的库(映射后),若存在,检查该库下面是否存在同名的表(映射后)。如果有,将提出警告。 检查源数据库Oracle的表字段的数据类型能否都迁移到目标库 待迁移表中不能存在Oracle的独有的字段类型,ROWID、UROWID、XMLTYPE、BFILE、SDOGEOMETRY等类型 检查源库对象是否仅大小写不同 迁移对象中是否包含仅大小写不同的对象时,预检查不通过 检查待迁移库名合法性 若待迁移库名中包含非法字符,检查不通过 检查待迁移表名合法性 若待迁移表名中包含非法字符,检查不通过 检查源库字符集是否为支持的字符集 源库字符集支持以下字符集:ZHS16GBK,AL32UTF8,UTF8,US7ASCII,WE8MSWIN1252若源库字符集不属于以上字符集,预检查将不通过 检查当前登录账号是否个人账号 勾选增量时,检查源库的迁移用户是否为个人账号,若账号为系统用户,检查不通过 检查源库是否开启归档日志 勾选增量时,检查源库是否开启归档日志,若未开启,检查不通过 检查源库是否开启补充日志 勾选增量时,检查源库是否开启补充日志,若未开启,检查不通过 如果预检查通过,可单击【预检查】页面底部的“启动迁移”按钮,开始迁移任务。或者直接单击”数据迁移“列表,返回数据迁移主界面,任务将显示为”未启动“状态。 勾选任务,单击 开始任务 ,任务将变为 运行中 ,直到全量迁移完成,或者进入增量迁移状态。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将Oracle迁移到TeleDB
      • 产品类型和规格
        性能保障型负载均衡 性能保障型负载均衡适用于对性能有较高要求的应用场景,能够提供更强大的性能和扩展能力。 性能保障型负载均衡为收费产品,为集群模式部署,支持经典型升级为性能保障型,支持规格升级、降级。 经典型升级性能保障型 随着业务规模发展,存量经典型实例的性能无法满足业务需求时,可选择升级性能保障型,以获得更高的负载性能和性能保障 注意 经典型升级性能保障型,升级过程涉及底层迁移,有秒级流量中断,建议在业务低谷时段维护窗口操作。 规格升级、降级 升配:当用户业务快速增长,当前规格无法满足性能要求时,可使用规格变配功能,平滑升级更高规格; 降配:用户购买规格过大,或业务量出现持续一段时间的低谷时,可选择降配,将大规格降低成小规格,节省使用成本; 性能保障型负载均衡有如下规格: 规格 最大并发连接数 新建连接数(CPS) QPS(HTTP) QPS(HTTPS) 标准型I 100000 10000 10000 2000 标准型II 200000 20000 20000 4000 增强型I 400000 30000 30000 6000 增强型II 600000 50000 50000 10000 高阶型I 1000000 50000 50000 10000 高阶型II 2000000 100000 80000 16000 超强型I 4000000 200000 100000 20000 超强型II 10000000 500000 200000 40000 超强型II应用型 10000000 500000 200000 100000 超强型III 20000000 1000000 300000 300000 说明 在支持性能保障型负载均衡的资源池中,高阶型II、超强型I、超强型II、超强型II应用型、超强型III规格的负载均衡实例默认不支持创建。如果您在集群模式资源池需要使用高阶型II、超强型I、超强型II、超强型II应用型、超强型III规格的负载均衡实例,可以通过天翼云控制台提工单进行申请。性能保障型负载均衡提供项目定制型规格,最大支持2000万并发、100万CPS、100万QPS,如有需求,请联系客户经理。
        来自:
        帮助文档
        弹性负载均衡 ELB
        产品简介
        产品类型和规格
      • 新建整库迁移作业
        本章节主要介绍新建整库迁移作业。 操作场景 CDM支持在同构、异构数据源之间进行整库迁移,迁移原理与新建表/文件迁移作业相同,关系型数据库的每张表、Redis的每个键前缀、Elasticsearch的每个类型、MongoDB的每个集合都会作为一个子任务并发执行。 支持整库迁移的数据源请参见支持的数据源中整库迁移支持的数据源类型。 自动建表时的字段类型映射 CDM迁移数据库时支持在目的端自动建表。CDM在数据仓库服务(Data Warehouse Service,简称DWS)中自动建表时,DWS的表与源表的字段类型映射关系如下图所示。例如使用CDM将Oracle整库迁移到DWS,CDM在DWS上自动建表,会将Oracle的 NUMBER(3,0) 字段映射到DWS的 SMALLINT 。 详见下图:DWS端自动建表时的字段映射 前提条件 已新建连接。 CDM集群与待迁移数据源可以正常通信。 操作步骤 1.进入CDM主界面,单击左侧导航上的“集群管理”,选择集群后的“作业管理”。 2.选择“整库迁移 > 新建作业”,进入作业参数配置界面。 3.配置源端作业参数,根据待迁移的数据库类型配置对应参数,如下表所示。 源端作业参数 源端数据库类型 源端参数 参数说明 取值样例 DWS FusionInsight LibrA MySQL PostgreSQL SQL Server Oracle SAPHANA MYCAT 模式或表空间 “使用SQL语句”选择“否”时,显示该参数,表示待抽取数据的模式或表空间名称。单击输入框后面的按钮可进入模式选择界面,用户也可以直接输入模式或表空间名称。 如果选择界面没有待选择的模式或表空间,请确认对应连接里的帐号是否有元数据查询的权限。 schema DWS FusionInsight LibrA MySQL PostgreSQL SQL Server Oracle SAPHANA MYCAT Where子句 该参数适用于整库迁移中的所有子表,配置子表抽取范围的Where子句,不配置时抽取整表。如果待迁移的表中没有Where子句的字段,则迁移失败。 该参数支持配置为时间宏变量,实现抽取指定日期的数据。 age > 18 and age < 60 DWS FusionInsight LibrA MySQL PostgreSQL SQL Server Oracle SAPHANA MYCAT 分区字段是否允许空值 选择分区字段是否允许空值。 是 HIVE 数据库名称 待迁移的数据库名称,源连接中配置的用户需要拥有读取该数据库的权限。 hivedb HBASE CloudTable 起始时间 起始时间(包含该值)。格式为'yyyyMMdd hh:mm:ss',支持dateformat时间宏变量函数。例如:"20171231 20:00:00"或"{dateformat(yyyyMMdd, 1, DAY)} 02:00:00"或 {dateformat(yyyyMMdd HH:mm:ss, 1, DAY)} HBASE CloudTable 终止时间 终止时间(不包含该值)。格式为'yyyyMMdd hh:mm:ss',支持dateformat时间宏变量函数。例如:"20180101 20:00:00"或"{dateformat(yyyyMMdd, 1, DAY)} 02:00:00"或" {dateformat(yyyyMMdd HH:mm:ss, 1, DAY)}" Redis 键过滤字符 填写键过滤字符后,将迁移符合条件的键。例如:a,迁移所有: DDS MongoDB 数据库名称 待迁移的数据库名称,源连接中配置的用户需要拥有读取该数据库的权限。 mongodb DDS MongDB 查询筛选 创建用于匹配文档的筛选器。例如:{HTTPStatusCode:{ $ gt:"400",$lt:"500"},HTTPMethod:"GET"}。 Elasticsearch CSS 索引 待抽取数据的索引,支持配置为通配符,一次迁移多个符合通配符条件的索引。例如这里配置为cdm时,CDM将迁移所有名称为cdm开头的索引:cdm01、cdmB3、cdm45…… 如果源端配置为迁移多个索引时,目的端的作业参数“索引”将不允许配置。 cdm 4.配置目的端作业参数,根据待导入数据的云服务配置对应参数,如下表所示。 目的端作业参数 源端数据库类型 源端参数 参数说明 取值样例 DWS FusionInsight LibrA MySQL PostgreSQL SQL Server 整库迁移到关系数据库时,目的端作业参数请参见配置常见关系数据库目的端参数。 schema MRS HIVE 整库迁移到MRS HIVE时,目的端作业参数请参见配置Hive目的端参数。 hivedb MRS HBASE CloudTable 整库迁移到MRSHBASE或CloudTable时,目的端作业参数请参见配置HBase/CloudTable目的端参数。 是 MRS HDFS 整库迁移到MRS HDFS时,目的端作业参数请参见配置HDFS目的端参数。 OBS 整库迁移到OBS时,目的端作业参数请参见配置OBS目的端参数。 DCS 整库迁移到DCS时,目的端作业参数请参见配置DCS目的端参数。 DDS 数据库名称 待迁移的数据库名称,源连接中配置的用户需要拥有读取该数据库的权限。 mongodb 迁移行为 新增 有则替换,无则新增 CSS 索引 待抽取数据的索引,支持配置为通配符,一次迁移多个符合通配符条件的索引。 例如这里配置为cdm时,CDM将迁移所有名称为cdm开头的索引:cdm01、cdmB3、cdm45…… 如果源端配置为迁移多个索引时,目的端的作业参数“索引”将不允许配置。 cdm 5.如果是关系型数据库整库迁移,则作业参数配置完成后,单击“下一步”会进入表的选择界面,您可以根据自己的需求选择迁移哪些表到目的端。 6.单击“下一步”配置任务参数。 详见下图:任务参数 各参数说明如下表所示。 表任务配置参数 参数 说明 取值样例 同时执行的表个数 抽取时并发执行的表的数量。 3 抽取并发数 设置同时执行的抽取任务数,一般保持默认即可。 1 是否写入脏数据 选择是否记录脏数据,默认不记录脏数据。 是 脏数据写入连接 当“是否写入脏数据”为“是”才显示该参数。 脏数据要写入的连接,目前只支持写入到OBS连接。 obslink OBS桶 当“脏数据写入连接”为OBS类型的连接时,才显示该参数。 写入脏数据的OBS桶的名称。 dirtydata 脏数据目录 “是否写入脏数据”选择为“是”时,该参数才显示。 OBS上存储脏数据的目录,只有在配置了脏数据目录的情况下才会记录脏数据。 用户可以进入脏数据目录,查看作业执行过程中处理失败的数据或者被清洗过滤掉的数据,针对该数据可以查看源数据中哪些数据不符合转换、清洗规则。 /user/dirtydir 单个分片的最大错误记录数 当“是否写入脏数据”为“是”才显示该参数。 单个map的错误记录超过设置的最大错误记录数则任务自动结束,已经导入的数据不支持回退。推荐使用临时表作为导入的目标表,待导入成功后再改名或合并到最终数据表。 0 7.单击“保存”,或者“保存并运行”。 作业任务启动后,每个待迁移的表都会生成一个子任务,单击整库迁移的作业名称,可查看子任务列表。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        新建整库迁移作业
      • 自建MySQL迁移至自建PostgreSQL
        本节为您介绍自建MySQL迁移至自建PostgreSQL任务配置。 前提条件 (1)自建PostgreSQL目标端版本为9.5.x、9.6.x、10.x、11.x、12.x、13.x、14.x版本。 (2)结构迁移只支持表结构迁移。 目标端权限要求 迁移模式 所需权限 基础权限 模式层级:USAGE 表层级: SELECT 全量迁移 需具备基础权限 结构迁移 需具备基础权限,且具备模式层级的CREATE权限 增量迁移 需具备基础权限,且用户为超级用户或者复制角色 复制角色赋予方法:alter user 用户名 with replication 稽核修复 需具备基础权限 目标端配置 数据源类型 选定为PostgreSQL,可将源端迁移至版本范围内的PostgreSQL数据库 服务器IP 目标端数据库的连接IP 端口号 目标端数据库的端口 用户名 用于连接待目标端数据库的用户名称 密码 用于连接待目标端数据库的用户的密码 数据库 目标端用于接收源端数据的数据库名称 模式 目标端用于接收源端数据的模式(schema)名称
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建MySQL为源的迁移任务配置
        自建MySQL迁移至自建PostgreSQL
      • 对象名映射
        本页为您介绍对象名映射的操作流程。 数据传输服务DTS在配置迁移/同步任务时,支持用户为源库的库名、schema和表名添加映射关系。 例如在目标库存在同名库表的情况下,可将现有源库的库表名进行映射编辑,数据传输服务DTS将迁移或同步映射后的名称到目标库。 以下,以数据迁移为例介绍库表名映射的操作流程。 操作流程 1. 在【数据迁移】实例列表页面,选择待配置的迁移实例,点击“实例配置”(或选择已配置的实例,点击“编辑实例”),完成源库及目标库配置后,进入配置迁移对象及高级配置步骤,在源库对象窗口中展开待迁移库。 2. 展开待迁移对象至要映射的对象层级。 3. 选择对象,点击移动按钮,移动到右侧窗口后点击编辑按钮,编辑需要映射的库名。 4. 展开待迁移对象,点击编辑需要映射的表名。 5. 当数据迁移不勾选增量迁移时,在“编辑表”页面可对表的列名称进行修改,因架构升级,此功能暂时关闭,后续放开。 说明 1. 当勾选增量迁移时,该功能将处于“禁用”状态。 2. 如果修改了列名称,目标库对应表的列名称将变为修改后的列名称。 6. 完成对象名映射,页面可见修改前后的名称。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        实例配置和实例编辑
        迁移对象管理
        对象名映射
      • 资源迁移
        本章节主要介绍资源迁移。 当您需要将一个工作空间中的资源迁移至另一个工作空间,可使用数据治理中心DataArts Studio的资源迁移功能,对资源进行导入导出。 资源迁移支持迁移的资源包含数据服务、元数据分类、元数据标签、元数据采集任务和管理中心数据连接。 前提条件 资源导入导出功能依赖于OBS服务。 系统中存在可迁移的资源,参见创建数据连接章节中的 创建数据连接表,标签管理对元数据进行分类和标签的添加,任务管理完成采集任务的创建和 发布API中发布的API。 约束条件 名称相同的采集任务不支持被重复迁移。 名称相同的分类和标签不支持被重复迁移。 导入导出的资源以json格式存储。 由于安全原因,导出连接时没有导出连接密码,需要在导入时自行输入。 导出资源 1.在DataArts Studio控制台首页,选择对应工作空间的“管理中心”模块,进入管理中心页面。详见下图选择管理中心。 2.在管理中心页面,单击“资源迁移”,进入资源迁移页面。详见下图资源迁移。 3.单击“新建导出”,配置文件的OBS存储位置和文件名称。如无OBS服务,仅需设置导出文件名即可。详见下图选择导出文件。 4.单击“下一步”,勾选导出的模块。详见下图勾选导出的模块。 5.单击“下一步”,等待导出完成,资源包导出到步骤3所设置的OBS存储位置。如无OBS服务,则导出完成后可在资源迁移的对应迁移任务行中,单击“下载”获取导出的资源包。 详见下图:导出完成 导出资源耗时1分钟仍未显示结果则表示导出失败,请重试。如果仍然无法导出,请联系客服或技术支持人员协助解决。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        管理控制台
        资源迁移
      • 约束与限制
        数据库迁移通用限制和约束 1. CDM以批量迁移为主,仅支持有限的数据库增量迁移,不支持数据库实时增量迁移。 2. CDM支持的数据库整库迁移,仅支持数据表迁移,不支持存储过程、触发器、函数、视图等数据库对象迁移。 3. CDM仅适用于一次性将数据库迁移到云上的场景,包括同构数据库迁移和异构数据库迁移,不适合数据同步场景,比如容灾、实时同步。 4. CDM迁移数据库整库或数据表失败时,已经导入到目标表中的数据不会自动回滚,对于需要事务模式迁移的用户,可以配置“先导入到阶段表”参数,实现迁移失败时数据回滚。极端情况下,可能存在创建的阶段表或临时表无法自动删除,也需要用户手工清理(阶段表的表名以“cdmstage”结尾,例如:cdmtetcdmstage)。 5. CDM访问用户本地数据中心数据源时(例如本地自建的MySQL数据库),需要用户的数据源可支持Internet公网访问,并为CDM集群实例绑定弹性IP。这种方式下安全实践是:本地数据源通过防火墙或安全策略仅允许CDM弹性IP访问。 6. 仅支持常用的数据类型,字符串、数字、日期,对象类型有限支持,如果对象过大会出现无法迁移的问题。 7. 仅支持数据库字符集为GBK和UTF8。 8. 字段名不可使用&和%。 关系数据库迁移权限配置 常见关系数据库迁移需要的最小权限级: MySQL:INFORMATIONSCHEMA库的读权限,以及对数据表的读权限。 Oracle:需要该用户有resource角色,并在tablespace下有数据表的select权限。 达梦:具有该schema下select any table的权限。 DWS:需要表的schema usage权限和数据表的查询权限 SQL Server:用户需要有sysadmin权限。 PostgreSQL:角色拥有数据库下schema下表的select权限。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        约束与限制
      • 创建方式简介
        本章节主要介绍创建翼MapReduce服务的方式。 用户可以通过点击翼MapReduce产品页的“立即开通”或翼MR控制台内的“创建集群”进入订购页面,按需完成软件、硬件与基础配置,通过确认订单并支付,完成集群创建。支付后我们将为您尽快拉起集群,您可前往翼MR控制台查看集群的创建进度。 创建数据湖集群:数据湖集群提供更高效、灵活的集群管理,更快地运行大数据的计算引擎,更好地提供数据分析能力,帮助您更加方便快捷的对数据湖的计算、存储资源进行构建和管理。 创建数据分析集群:数据分析集群使用开源的MPP架构的OLAP分析引擎,支持亚秒级的数据查询和多表join,帮助您更加快捷的进行数据分析工作。 创建数据服务集群:数据服务集群提供高度可靠性、可扩展性的数据服务以满足您的数据需求。 创建云搜索集群:云搜索集群通过分布式计算和存储系统,为结构化/非结构化数据提供低成本、高性能及可靠性的检索、分析服务能力,帮助您更方便的检索大规模数据集。 创建实时数据流集群:实时数据流集群提供高效的流式计算、消息队列等组件能力,支持实时数据ETL和日志采集分析的业务需求。 创建自定义集群:自定义集群提供丰富灵活的服务搭配,支持自行选择业务所需服务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        创建方式简介
      • 运行SparkSQL作业
        本章节主要介绍翼MapReduce如何运行SparkSQL作业。 用户可将自己开发的程序提交到翼MR中,执行程序并获取结果。本章节教您在翼MR集群后台如何提交一个新的SparkSQL作业。SparkSQL作业用于查询和分析数据,包括SQL语句和Script脚本两种形式,如果SQL语句涉及敏感信息,请使用Spark Script提交。 前提条件 用户已经将运行作业所需的程序包和数据文件上传至HDFS系统中。 通过后台提交作业 例如安装路径为“/usr/local/spark3”。具体以实际为准。 1. 登录翼MR管理控制台。 2. 选择“我的集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3. 在“节点管理”页选中单击Master节点,选择要进入的Master节点。 4. 单击该节点右侧的“远程连接”。 5. 根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 6. 集群默认开启Kerberos认证,执行以下命令认证当前用户. 示例: klist kt /etc/security/keytabs/spark.keytab 获取spark.keytab的principalname kinit kt /etc/security/keytabs/spark.keytab spark.keytab的principalname 7. 打开sparksql命令行,进入sparksql命令行后可执行SQL语句,执行命令如下: cd $SPARKHOME ./bin/sparksql conf spark.yarn.principaldefault 若需要执行SQL文件,需要上传SQL文件(如上传到“/opt/”目录),上传文件后执行命令如下: cd $SPARKHOME ./bin/sparksql conf spark.yarn.principaldefault f /opt/script.sql
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行SparkSQL作业
      • 场景:全量备份迁移
        本章节内容主要介绍全量备份迁移 全量备份迁移场景为一次性数据库迁移,需要停止业务,将导出的Microsoft SQL Server全量备份文件上传至对象存储服务,然后恢复到目标数据库。 本小节将详细介绍通全量备份迁移的步骤。 迁移示意图 图 全量迁移 迁移流程 图 迁移流程 操作步骤 1.导出数据库全量备份文件,具体操作请参见导出数据库备份文件。 2.将导出的备份文件上传至OBS桶内,具体操作请参见上传备份文件。 3.登录数据库复制服务控制台。 4.单击管理控制台左上角的,选择区域和项目。 5.在“所有服务”或“服务列表”中,选择“数据库>数据库复制服务”,进入数据库复制服务信息页面。 6.在页面左侧导航栏,选择“备份迁移管理”,单击“创建迁移任务”,进入“选定备份”页面。 7.填写迁移任务信息和备份文件信息,单击“下一步”。 图 迁移任务信息 表 迁移任务信息 参数 描述 任务名称 任务名称在464位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 描述 描述不能超过256位,且不能包含!<>&'"特殊字符。 数据库类型 选择Microsoft SQL Server数据库引擎。 备份文件来源 选择自建OBS桶。 桶名 选择备份文件所在的桶名,以及该桶目录下已经上传好的全量备份文件。说明:o Microsoft SQL Server的备份文件需要选择OBS桶目录下“.bak”格式的文件名,且可以同时选择多个备份文件。该桶的桶名、备份文件名或者路径中不能包含中文。 在“选定目标”页面,填选数据库信息后,单击“下一步”。 图 全量迁移数据库信息 Microsoft SQL Server数据库信息 参数 描述 目标RDS实例名称 选择目标RDS实例。若没有合适的目标RDS数据库实例,请先创建所需的目标数据库实例,可参见《关系型数据库快速入门》中“SQL Server快速入门”下的“购买实例”章节。 待恢复备份类型 选择全量备份。全量备份指备份文件是完整备份类型的备份。说明:一次性数据库迁移,则需要停止业务,上传全量备份进行恢复。 最后一个备份 当前进行的是一次性全量备份迁移,该参数选择“是”。 覆盖还原 覆盖还原是指目标端数据库实例已经存在同名的数据库,备份还原中是否要覆盖已存在的数据库。您可以根据业务需求,选择是否进行覆盖还原。说明:若选择此项,目标数据库实例中与待还原数据库同名的数据库将会被覆盖,请谨慎操作。 执行预校验 备份迁移任务是否执行预校验,默认为是。o 是:为保证迁移成功,提前识别潜在问题,在恢复前对备份文件的合法性、完整性、连续性、版本兼容性等进行校验。否:不执行预校验,迁移速度更快,但需要用户判断备份文件的合法性、完整性、连续性、版本兼容性等问题。 指定需要恢复的数据库 您可以选择将全部数据库或部分数据库进行恢复。o 全部数据库:恢复备份文件中所有的数据库,不需要输入待还原数据库名称,默认还原备份文件里的所有数据库。o 部分数据库:恢复备份文件中的部分数据库,需要输入待还原数据库名称。全量备份需要保证指定恢复的数据库始终一致。 9.在“确认信息”页面核对配置详情后,勾选协议,单击“下一步”。 10.返回“备份迁移管理”页面,在任务列表中,观察对应的恢复任务的状态为“恢复中”,恢复成功后,任务状态显示“成功”。
        来自:
        帮助文档
        数据库复制
        最佳实践
        本地Microsoft SQL Server备份迁移到云上RDS for SQL Server实例
        场景:全量备份迁移
      • 产品优势
        本节主要介绍产品优势 云迁移工具RDA是天翼云为上云用户量身打造的迁移工具,可提供主机和对象存储在线迁移,助力企业快速上云,节省维护和使用成本。 操作简单 支持一键部署、图形化操作界面及常见问题一键修复。 安全可信 安全,传输加密,传输通道使用SSL加密,保证您数据传输安全性;认证和密码加密,存储的相关凭证采用了AESCBC进行双边加解密。 智能高效 对生产系统影响最小化,当CPU、IO、内存和带宽占用达到设定的阈值后暂停迁移/同步,等待资源空闲后自动恢复迁移/同步。 无缝迁移 迁移/同步过程业务不中断,生产系统无需停机/停服。
        来自:
        帮助文档
        云迁移工具RDA
        产品介绍
        产品优势
      • 注册中心迁移
        本章节介绍注册中心迁移方案 MSE Nacos Sync迁移方案 本文介绍基于Nacos Sync 注册中心的迁移方案。 迁移方案简介 Nacos sync 是一个支持多种注册中心的同步组件,目前支持Nacos 和Zookeeper 注册中心 的双向同步,另外还支持Eureka 和Consul数据同步到Nacos。 迁移工具介绍 在迁移过程中,Nacos sync能够将源集群上的服务信息同步到目标集群实例上,从而实现配置中心之间的平滑迁移。 Nacos Sync 本身是无状态的,将任务等状态数据保存在数据库中,所以水平扩展非常方便。Nacos Sync 通过定时任务补偿机制处理宕机节点未处理完毕的任务数据。注册配置中心实例已经内置同步工具,无需用户额外安装,迁移方法可以参考章节:迁移上云。 Nacos Sync适配Zookeeper、Nacos和Eureka 的服务注册逻辑,能够实现从Zookeeper、Nacos和Eureka 自动获取服务,一键同步,操作非常简单。 支持的注册中心类型 源注册中心 目标注册中心 说明 Nacos Nacos Nacos原生服务类型。 Zookeeper Nacos 基于Curator实现的服务发现功能和Dubbo服务。 Zookeeper Zookeeper 服务和配置。 Eureka Nacos Eureka原生服务类型。Eureka原生服务名为大写,但Nacos Sync会将服务名名转换成小写。 从Dubbo Nacos迁移到MSE 本文介绍如何从Dubbo+Nacos 迁移服务到MSE。
        来自:
        帮助文档
        微服务引擎
        最佳实践
        注册配置中心
        应用迁移
        注册中心迁移
      • 迁移计划资源选取
        本节为您介绍云迁移服务CMS迁移计划资源选取相关内容。 1. 云迁移服务CMS 提供资源选取功能,您可以在[ 迁移计划 ] 界面,点击【资源选取】按钮,进入[资源选取] 界面,如图所示。 2. 选择需要添加的资源,点击【下一步】按钮,跳转至 [ 资源确认 ] 界面,如图所示。 3. 对 [ 资源选取 ] 界面已选资源进行确认,点击【资源确认】按钮,完成资源选择,如图所示。 4. 完成资源选择,平台会自动跳转至 [ 迁移计划详情 ] 界面 ,您可以在迁移计划资源清单中进行查看,如图所示。 5. 您可以在 [ 迁移计划详情 ] 界面 中选择计划资源清单列表中对已选资源进行相应资源查看,创建和删除相关操作,如图所示。 备注 资源管理 资源管理提供两种方式入口进入 1. [ 资源管理 ] 界面,选择对应资源进行查看。 2. [ 迁移计划详情 ] 界面,迁移计划资源清单列表,点击【资源管理】按钮。 如图所示。 资源创建 资源创建提供两种方式入口进入 1. [迁移计划详情] 界面,迁移计划资源清单列表中任务资源创建。如图所示。 2. [ 资源创建 ] 界面,创建资源。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        资源规划
        迁移计划
        迁移计划资源选取
      • 实例状态说明
        状态 说明 对应实例状态 未预检查 任务还未预检查 未启动 未通过预检查 任务预检查存在不通过的检查项 未启动 预检查中 任务正在进行预检查 未启动 预检查通过 任务预检查不存在不通过的检查项 未启动 运行中 启动任务指令已发送至工作节点,等待节点启动 未启动 运行异常 任务执行异常 运行异常 已暂停 用户执行暂停操作后,任务将处于暂停状态 未启动 结构迁移中 任务正在执行结构迁移 运行中 结构迁移完成 任务的前置结构迁移或后置结构迁移已完成 运行中 全量开始 任务正在执行全量迁移 运行中 全量完成 任务的全量阶段已完成 运行中 增量开始 任务正在执行增量迁移 运行中 完成(终结) 不含增量的任务执行完成之后,任务将处于已完成状态 已完成
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        实例管理
        生命周期管理
        实例状态说明
      • 功能特性
        数据过滤 行过滤:用户可以自由拼接where条件完成行数据过滤。 列过滤:用户可以直接设置需要迁移的列。 DML和DDL清洗:支持选择增量迁移/同步的DDL或DML(INSERT/UPDATE/DELETE)操作筛选。 数据稽查 对象级对比 对源库和迁移/同步后的目标库,支持对索引、表、视图、存储过程和函数等对象在数量上进行对比,确保数据对象无缺失。 数据级对比 对源库和迁移/同步后的目标库,支持对迁移或同步的表的行数进行对比,确保用户数据完整性。 内容级对比 对源库和迁移/同步后的目标库,支持对迁移或同步的表的行数据设置对比的数据块大小,进行全量或抽样校验,确保用户数据的一致性。 迁移报告 迁移评估报告 当数据迁移完成时,自动为用户生成迁移评估报告,提供迁移前(预检查情况),迁移中(迁移过程中性能监控指标)和迁移后(数据稽查比对)的全视图,并提供WORD版本下载。 任务管理 开始任务 实例订购完成后,用户可以随时开始任务。如果是按需实例,在首次开始任务之前,不会产生任何费用。 暂停任务 用户可以随时暂停正在进行中的任务,被暂停的任务数据传输会临时中断,可以通过“开始任务”恢复运行。 编辑任务 用户可以随时调整任务当中的迁移对象,对迁移/同步对象进行新增、删除操作,重启任务后生效。 注意 在编辑任务之前,用户必须先将该任务暂停。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        功能特性
      • 磁盘扩容
        本章节主要介绍翼MapReduce服务如何扩容数据盘容量。 当master、core或task节点的数据存储空间无法满足您的业务需求时,您可以使用磁盘扩容功能增加数据盘的空间。 背景信息 1. V2.15版本起,翼MR集群支持磁盘扩容功能。 2. 当前翼MapReduce控制台仅支持对数据盘容量进行扩容,不支持系统盘扩容。 3. 仅支持对状态为“运行中”的集群进行磁盘扩容操作。 4. 当前云硬盘不支持缩容,扩容生效后无法缩小,请按需规划存储空间。 5. 磁盘扩容成功后,低于V2.19.3版本的集群,需要登录云主机扩展分区和文件系统,V2.19.3版本起,无需进行该操作。 操作步骤 1. 登录翼MapReduce管理控制台。 2. 从“我的集群”中 ,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3. 选择“节点管理”,在需要扩容磁盘的节点组的“操作”列单击“磁盘扩容”,在磁盘扩容弹窗中进行配置。 4. 选择需要扩容的配置并完成支付后,可在“节点管理”的节点信息中,查看磁盘扩容结果,当节点组状态从“变更中”变为“运行中”,且容量已增加,表示扩容成功。 5. 扩容成功后,低于V2.19.3版本的集群,需要登录云主机扩展分区和文件系统,详细操作方式请参考数据盘扩展磁盘分区和文件系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        节点管理
        磁盘扩容
      • 步骤四:对比迁移项
        本节主要介绍步骤四:对比迁移项 对比迁移项可以清晰反馈出源数据库和目标数据库的数据是否存在差异。为了尽可能减少业务的影响和业务中断时间,数据库实时迁移场景提供了完整的迁移对比流程,帮助您确定合适的业务割接时机。 图 迁移对比流程 迁移对比功能支持对象级对比、数据级对比和用户对比。 对象级对比:支持对数据库、索引、表、视图、存储过程和函数、表的排序规则等对象进行对比。 数据级对比:支持对表或者集合的行数和内容进行对比。 说明 全量迁移中的任务无法进行数据级对比。 用户对比:对源库和目标库的账号名称、权限进行对比,目前仅MySQL支持用户对比。 前提条件 已登录数据库复制服务控制台。 已启动迁移任务。 操作步骤 在进行迁移项数据对比时,您可以按照迁移对比须知模块推荐的流程操作,也可以根据业务场景选用对比方式。以下操作将按照迁移对比须知模块的推荐方案详细介绍各功能的使用方法。 1、在“实时迁移管理”界面,选中指定迁移任务,单击任务名称,进入“基本信息”页签。 2、单击“迁移对比”页签,进入“迁移对比”信息页面,对源数据库和目标数据库的数据进行对比分析。 您也可以在“实时迁移管理”界面,选中指定迁移任务,单击操作列的“查看对比”,进入“迁移对比”页面。 1)首先进行数据库对象完整性检查。 单击“对象检查”,进入“对象级对比”页签,单击“开始对比”后稍等一段时间再单击,查看各个对比项的对比结果。 图 对象级对比 若需要查看对比项的对比结果详情,可单击指定对比项操作列的“详情”。 2)数据库对象检查完成后,进行迁移数据行数及内容的对比。 如果仅需要对比全部迁移对象的行数,您也可以在“实时迁移管理”界面,选中指定迁移任务,单击操作列的“创建对比”,创建对比任务。 A)单击迁移对比须知处的“全面检查”,进入“创建对比任务”页面。 B)在“创建对比任务”页面,分别选择“对比类型”、“对比方式”、“对比时间”和“对象选择”后,单击“是”,提交对比任务。 图 创建对比任务 对比类型:分为行数对比和内容对比。 对比方式:分为静态对比和动态对比两种。 静态对比:对源数据库和目标数据库进行一次全量内容对比,内容对比完成后对比任务结束,适用于无数据变化的非业务时间。 动态对比:先对源数据库和目标数据库进行一次全量内容对比,对比任务完成后进入增量对比阶段,实时比对源数据库和目标数据库的增量数据,适用于有数据变化的业务时间。 说明 目前仅MySQL引擎支持对比方式选择。 对比时间:可设置为“立即启动”和“稍后启动”。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现符合实际情况的少量数据不一致对比结果,推荐结合对比定时功能,选择在业务低峰期进行对比,得到更为具有参考性的对比结果。 对象选择:可根据具体的业务场景选择需要进行对比的对象。 说明 目前仅MySQL引擎支持内容对比,而且在进行内容对比之前,系统会帮助您对内容对比所需的耗时进行预估。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 对比任务提交成功后,返回“数据级对比”页签,单击刷新列表,可以查看到所选对比类型的对比结果。 图 数据级对比结果 若需要查看对比类型详情,可单击指定对比类型操作列的“查看对比报表”,然后选择需要进行对比的数据库,单击操作列的“查看详情”,查看指定源数据库和目标数据库的对比结果详情。 图 对比详情 说明 运行中的任务可以随时取消,已取消的对比任务也支持查看对比报表。 进行数据库账号和权限对比。单击“用户对比”页签,可查看数据库账号及权限的对比结果。 图 用户对比 说明 全量迁移中的任务无法进行用户对比。 目前仅MySQL支持用户对比。 3)业务割接前,进行割接复查。 单击“割接复查”,进入创建对比任务页面,选择“对比类型”、“对比时间”和“对象选择”,单击“确定”,提交对比任务。 4)结束任务。 业务系统和数据库切换成功后,为了防止源数据库的操作继续同步到目标数据库,造成数据覆盖问题,此时您可选择结束迁移任务。该操作仅删除了迁移实例,迁移任务仍显示在任务列表中,您可以进行查看或删除。结束迁移任务后,DRS将不再计费。 一般情况下,结束任务功能可以确保特殊对象迁移的完整性(触发器、事件在结束阶段迁移),罕见情况下(例如网络异常)可能结束任务失败。当遇到多次任务结束失败时,可以勾选“强制结束任务”优先结束任务,以减少等待时间。强制结束任务,极端场景下可能会导致触发器、事件迁移不完整,请手工迁移触发器、事件。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤四:对比迁移项
      • 待迁移的对象在目标库已存在(xxx already exists)
        本页为结构迁移/同步阶段报待迁移的对象在目标库已存在(xxx already exists)错误的场景、关键词、可能原因和修复方法建议。 场景描述 包含结构迁移/同步的任务,在进行结构迁移时失败,错误信息提示“xxx already exists”。 关键词 xxx already exists 可能原因 待迁移对象在目标库已经存在同名的对象。 修复方法 1. 暂停任务。 2. 将目标库存在的对象删除后重新启动任务。 3. 若以上操作仍不能解决问题,请联系DTS客服处理。
        来自:
        帮助文档
        数据传输服务DTS
        故障排除
        失败案例
        结构迁移/同步案例
        待迁移的对象在目标库已存在(xxx already exists)
      • 任务批量删除
        本节为您介绍数据库迁移工具提供任务批量删除功能。 数据库迁移工具提供任务批量删除功能,用户可勾选要删除任务,再点击“批量删除”按钮,一次性删除多个迁移任务。 操作步骤 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“迁移评估”。 2. 勾选要删除的任务,然后点击 “批量删除“按钮,再点击“确定”即可完成任务信息删除。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务批量删除
      • 任务删除
        本节为您介绍云迁移服务CMS中数据库迁移工具提供任务删除功能。 数据库迁移工具提供任务删除功能,用户可通过点击评估任务的“删除”按钮,删除评估任务。 操作步骤 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“迁移评估”。 2. 点击“删除”按钮,并点击“确定“按钮,即可完成任务信息删除。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        迁移评估
        任务管理
        任务删除
      • API使用说明
        本章节主要介绍翼MapReduce服务的API使用说明。 OpenAPI门户提供了产品的API文档、API调试、SDK中心等信息与能力。 您可以前往OpenAPI门户,了解如何使用翼MapReduce服务的API,详情请参见使用API。您可以在OpenAPI门户内了解调用前必知、API概览、如何调用API以及详细的接口说明。
        来自:
        帮助文档
        翼MapReduce
        API参考
        API使用说明
      • 变更备机的可用区
        本节介绍了变更备机可用区的内容。 操作场景 您可以将主备实例的备机迁移至同一区域内的其它可用区。 约束限制 RDS for MySQL 5.6、5.7、8.0版本的主备实例支持备机可用区迁移功能。 业务高峰期批量写操作可能会导致迁移失败,为确保迁移成功,请选择业务低峰期操作。 迁移期间将短暂停止DDL语句和event定时任务,请选择业务低峰期操作,避免业务异常中断。 如果备机迁移出现问题,任务中心会显示任务状态为失败,但是实例管理页面的运行状态一栏仍会显示“备机迁移中”,此时实例进入了锁保护状态,无法进行操作,您可以通过提交客服工单的方式来解决此问题。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击“操作”列的“更多 > 可用区迁移”,进入“可用区迁移”页面。 步骤 5 在“可用区迁移”页面,选择目标可用区,单击“提交”。 步骤 6 迁移可用区成功后,单击“返回云数据库RDS列表”,用户可以在“实例管理”页面对其进行查看和管理。 可用区迁移过程中,状态显示为“备机迁移中”。您可以通过“任务中心”查看详细进度。具体请参见任务中心。 在实例列表的右上角,单击 刷新列表,可查看到可用区迁移完成后,实例状态显示为“正常”。 在“基本信息”页面的“可用区”处,可以查看到备机迁移后所在的可用区。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        变更备机的可用区
      • 编辑迁移实例
        3、编辑迁移实例 在编辑数据迁移页面,根据实例状态的不同,系统会为你跳转至不同步骤的页面。用户可根据自己的需要,通过页面的“上一步”和“下一步”按钮进入您需要修改配置的页面。如需修改源库地址(实例)、源库及目标库的账号、密码,请进入第一步【配置源库及目标库】页面编辑数据库信息后测试连通性,通过后才能进入下一步。 第二步在【配置迁移对象及高级配置】页面,选中源库或目标库对象,进行迁移对象的增加或减少以及其他高级配置。 说明 编辑迁移对象及高级配置的操作与配置迁移实例时一样,具体请参见
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        实例配置和实例编辑
        编辑迁移实例
      • 迁移服务器上的基础服务(集群版)
        本节主要介绍迁移服务器上的基础服务命令。 ./stor server set { i item } service { n server } SERVERID destserver DESTSERVERID migrate SERVICE [ metadir METADIR ] 此命令用来迁移HBlock服务器上的基础服务,包括:mdm(元数据管理服务)、ls(日志服务)、cs(协调服务)。 应用场景:基础服务所在的服务器出现损坏、宕机等时,为了不影响HBlock服务,可以迁移服务器上的基础服务。 说明 可以通过命令行./stor server ls { n server } SERVERID查询基础服务的状态。一次只能迁移一个基础服务,如果有正在迁移的基础服务进程,必须等待迁移完成,才可以执行其他服务迁移操作。 注意 迁移ls服务的时候,要确保两个mdm服务和其他两个ls服务都是up状态,除了源服务器之外的所有的其他节点的ms服务(管理服务)正常,服务状态可以通过查询服务器命令获取。 迁移mdm服务的时候,要确保另一个mdm服务是up,除了源服务器之外的所有的其他节点的ps服务(协议解析服务)和ms服务(管理服务)正常,服务状态可以通过查询服务器命令获取。 迁移cs服务的时候,要确保其他两个cs服务都up,除了源服务器之外的所有的其他节点的ps服务(协议解析服务)和ms服务(管理服务)正常,服务状态可以通过查询服务器命令获取。 参数 参数 描述 i service 或 item service 迁移服务器上的基础服务。 n SERVERID 或 server SERVERID 源HBlock服务器的ID。 destserver DESTSERVERID 目的服务器ID。 migrate SERVICE 需要迁移的基础服务。 取值: mdm:元数据管理服务。 ls:日志服务。 cs:协调服务。 metadir METADIR 迁移服务的数据目录,用于存储基础服务的相关数据信息。 说明 为了提升读写性能,建议各基础服务的数据目录、安装目录、存储数据的数据目录相互独立。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        服务器操作
        迁移服务器上的基础服务(集群版)
      • 服务韧性与故障恢复
        本节为您介绍云迁移服务CMS服务韧性相关内容。 CMS架构设计采用多组件服务保障及分层架构提供高可用服务。 CMS服务负载使用容器化部署,可灵活调整pod数快速扩缩容;工作负载进行pod级容灾,在部分pod损坏情况下保持服务正常运行。 Redis工作负载对迁移任务的数据进行缓存交互与读写,并对负载进行集群部署提供冗余,应对迁移任务压力峰值波动。 MySQL工作负载采用主备架构,在主服务器宕机或损坏时,保证迁移数据不丢失。 CMS支持断点续传,在迁移过程中出现断网或者迁移出错等故障,故障修复后可支持在之前的进度上继续迁移、同步。
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        安全
        服务韧性与故障恢复
      • 数据集成概述
        本章节主要介绍数据集成概述。 DataArts Studio数据集成是一种高效、易用的数据集成服务,围绕大数据迁移上云和智能数据湖解决方案,提供了简单易用的迁移能力和多种数据源到数据湖的集成能力,降低了客户数据源迁移和集成的复杂性,有效的提高您数据迁移和集成的效率。 数据集成即云数据迁移(Cloud Data Migration,后简称CDM)服务,本文中的“云数据迁移”、“CDM”均指“数据集成”。 您可以通过以下方式之一进入CDM主界面: 登录CDM控制台,单击“集群管理”,进入到CDM主界面。 登录DataArts Studio控制台。选择对应工作空间的“数据集成”模块,进入CDM主界面。 选择数据集成详见下图 云数据迁移简介 云数据迁移基于分布式计算框架,利用并行化处理技术,支持用户稳定高效地对海量数据进行移动,实现不停服数据迁移,快速构建所需的数据架构。 数据集成定位详见下图 产品功能 表/ 文件/ 整库迁移 支持批量迁移表或者文件,还支持同构/异构数据库之间整库迁移,一个作业即可迁移几百张表。 增量数据迁移 支持文件增量迁移、关系型数据库增量迁移、HBase/CloudTable增量迁移,以及使用Where条件配合时间变量函数实现增量数据迁移。 事务模式迁移 支持当CDM作业执行失败时,将数据回滚到作业开始之前的状态,自动清理目的表中的数据。 字段转换 支持去隐私、字符串操作、日期操作等常用字段的数据转换功能。 文件加密 在迁移文件到文件系统时,CDM支持对写入云端的文件进行加密。 MD5校验一致性 支持使用MD5校验,检查端到端文件的一致性,并输出校验结果。 脏数据归档 支持将迁移过程中处理失败的、被清洗过滤掉的、不符合字段转换或者不符合清洗规则的数据单独归档到脏数据日志中,便于用户查看。并支持设置脏数据比例阈值,来决定任务是否成功。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        数据集成概述
      • 使用控制台管理已部署的代理
        本文为您介绍如何使用控制台管理已部署的代理。 操作场景 通过对象存储迁移服务的控制台,对您的代理进行查看、删除等操作。 前提条件 您的代理列表中存在至少一个代理。 您已经登录进入“对象存储>对象存储迁移服务>迁移任务 ”的控制台,点击“代理列表”分页进入代理列表页面。 查看代理 您可直接在“代理列表”分页查看您的所有代理信息。代理列表包含以下信息供您查看: 参数 说明 代理名称 展示自定义的代理名称。 代理ID 展示代理的ID。 代理内网IP 展示部署代理软件的设备的内网IP地址。 已绑定任务数量 展示该代理上已绑定的迁移任务总数。 状态 展示代理的状态。 代理的工作节点数量 展示该代理下的worker节点的数量。 查看校验码 您可在“代理列表”分页点击要查看校验码的代理后的“查看校验码”按钮,即可在弹窗中查看该代理的校验码。 注意: 为确保校验码信息的安全,仅“未注册”状态的代理支持查看校验码,已经完成注册的代理均不可查看。 该校验码是您在设备上部署代理软件时必须的校验信息,请您务必妥善保存避免泄露。 删除代理 您可在“代理列表”分页点击要查看校验码的代理后的“删除”按钮,二次确认后,即可删除该代理。 注意: 为确保您的数据迁移的安全,仅代理未绑定有迁移任务,或代理上无正在操作和迁移的任务时,可删除代理。 删除操作将从对象迁移服务中删除您已注册的代理,您的代理一经删除无法恢复,请慎重执行删除。 若该代理上绑定有迁移任务,删除代理将会导致任务无法继续执行,且不可恢复。 若您删除后需再次使用半托管模式执行迁移任务,请重新创建代理进行注册,然后重新创建迁移任务。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        如何使用半托管模式进行迁移
        使用控制台管理已部署的代理
      • 技术架构和功能原理
        本页为您介绍数据传输服务的技术架构和功能原理。 DTS技术架构 天翼云DTS系统技术架构图如下所示: DTS功能原理 数据迁移 DTS数据迁移提供多种迁移类型:结构对象迁移、全量数据迁移及增量数据迁移。如果需要实现不停服务迁移,需要同时选择结构对象迁移、全量数据迁移和增量数据迁移。 全量数据迁移过程可能会持续较久,在这过程中,源实例不断有业务写入,为保证迁移数据的一致性,在全量数据迁移之前,会记录当前源实例的日志位点,存储在本地数据库中。 当全量数据迁移完成后,DTS会启动增量日志回放模块,增量日志回放模块会从增量日志读取模块中获取增量数据,经过反解析、过滤、封装后迁移到目标实例,从而实现增量数据迁移。 数据同步 DTS数据同步功能能够实现两个数据源之间的增量数据实时同步。 同步链路创建过程 同步初始化 将源实例的历史存量数据在目标实例初始化一份。 增量数据实时同步 当初始化完成后进入两边增量数据实时同步阶段,该阶段DTS将实现源实例和目标实例的数据动态同步。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        技术架构和功能原理
      • 修改迁移参数模板
        本章介绍如何修改迁移参数模板。 操作场景 当保存的模板不再符合您的业务要求时,您可以登录管理控制台修改模板。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“公共配置”,进入公共配置页面。 3. 在迁移参数模板区域左侧的模板列表中,单击需要修改的模板名称。在迁移参数模板区域右侧,单击“迁移参数模板名称”和“迁移参数模板配置”后的按钮,可修改模板描述和模板参数。 4. 修改完成后,单击“确定”。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        公共配置
        修改迁移参数模板
      • 自建Oracle迁移至中国电信TeleDB
        本节为您介绍自建Oracle迁移至中国电信TeleDB任务配置。 限制条件 中国电信TeleDB for MySQL在使用Udal组件的情况下,全量迁移阶段无法自动迁移表定义。您需要提前手动创建表。 目标端配置请参照自建Oracle迁移至自建MySQL。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建Oracle为源的迁移任务配置
        自建Oracle迁移至中国电信TeleDB
      • 1
      • ...
      • 19
      • 20
      • 21
      • 22
      • 23
      • ...
      • 106
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      一站式智算服务平台

      智算一体机

      知识库问答

      推荐文档

      账单

      邀请参会方

      成员权限

      只读实例简介

      完成授权

      负载均衡停用

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号