云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼迁移_相关内容
      • 实时迁移
        MySQL存储过程迁移上云后遇到调用权限的问题,如何解决 MySQL存储过程迁移上云后,可能会因为权限问题导致调用存储过程或函数出错。 针对该情况,不同的Definer策略有不同的处理方法。本章节主要以user1为示例,介绍两种迁移Definer的策略下的处理方法。 策略一 在测试连接页面的目标库信息中填写数据库用户名user1,所有Definer迁移到该用户下选“是”。 这种策略下,源库所有存储过程和方法的Definer迁移到目标库后账号都会自动修改为user1,host改为% 。若在目标库上出现调用存储过程失败的情况,可执行如下操作: 步骤 1 使用uesr1账号登录到目标库RDS for MySQL实例。 步骤 2 如果需要使用其他账号调用存储过程,则该账号需要具有execute权限。 步骤 3 通过如下语句,使用user1授予其他账号执行存储过程的权限。 其中user表示需要调用存储过程的其他账号: GRANT EXECUTE ON db. TO user; 步骤 4 如果需要通过Java调用存储过程,则需要通过如下语句,使用user1授予其他账号查询mysql.proc表的权限。 授权语句可参考如下语句,user表示需要调用存储过程的账号: GRANT SELECT ON mysql.proc TO 'user'@'%'; 策略二 在测试连接页面的目标库信息中填写数据库用户名user1,所有Definer迁移到该用户下选“否”。 这种策略下,源库所有存储过程和方法的Definer迁移到目标库后账号和host保持不变,选择此选项,需要配合2.3.5.1 迁移用户功能,将源数据库的用户全部迁移,这样才能保持源数据库的权限体系完全不变。 如果您未选择用户权限迁移或者用户权限迁移时存在不支持迁移的账号,建议选择策略一来处理。
        来自:
        帮助文档
        数据库复制
        常见问题
        实时迁移
      • 删除迁移任务
        本节主要介绍删除迁移任务 对于已结束或者配置失败的任务,您可选择删除迁移任务。被删除后的任务将不会再出现在任务列表中,请谨慎操作。 前提条件 已登录数据复制服务控制台。 已结束或者配置失败的迁移任务。 删除任务 步骤 1 在“实时迁移管理”页面的迁移列表中,选择需要删除的任务,单击操作列“删除”按钮。 步骤 2 单击“确定”,提交删除任务。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        删除迁移任务
      • 如何迁移其他云厂商对象存储数据到媒体存储
        本文介绍如何迁移其他云厂商对象存储数据到媒体存储。 媒体存储提供数据迁移工具,您可轻松迁移数据至媒体存储。具体实践可参考:迁移其他云厂商数据到媒体存储。
        来自:
        帮助文档
        媒体存储
        常见问题
        数据迁移
        如何迁移其他云厂商对象存储数据到媒体存储
      • PostgreSQL迁移/同步到PostgreSQL
        2、目标库连通性检查 失败原因 处理建议 :: 目标数据库账号或密码不正确。 输入正确的数据库账号和密码后重新执行预检查。 目标数据库所在网络或服务器设置了防火墙。 查看数据库所在的网络防火墙是否限制了DTS的IP地址段,如果有,关闭防火墙或者将DTS的IP地址加入防火墙白名单中。 目标库迁移账号登录权限不足。 登录目标库,为迁移账号添加相应的远程访问权限。 网络互通问题。 联系数据库所在机器管理人员和DTS部署机器管理人员排查问题。 数据库对象检查 1、源数据库的模式名表名是否合法 失败原因 处理建议 :: 待迁移对象中存在非法的字符。 更改含非法字符的待迁移对象名称。 取消含非法字符的待迁移对象。 2、同名对象存在性检查 失败原因 处理建议 :: 目标库存在与待迁移对象同名的对象。 1. 取消同名对象的迁移。 2. 将同名对象进行名称映射。 3. 删除目标库存在的同名对象。 3、约束完整性检查 失败原因 处理建议 :: 待迁移子表依赖的父表没有被选择为迁移对象。 1. 在迁移对象中加入相应父表。 2. 在迁移对象中移除相应子表。 3. 删除相关外键依赖。
        来自:
        帮助文档
        数据传输服务DTS
        故障排除
        预检查不通过修复方法
        PostgreSQL迁移/同步到PostgreSQL
      • 工具迁移
        应用场景 适用于用户的数据存储在对象存储ZOS中,且需要准备迁移服务器可下载ZOS数据,并和HPFS网络互通,保证可挂载文件系统的场景下。 准备工作 创建迁移服务器,如果目标HPFS文件系统是NFS协议,迁移服务器可选择弹性云主机。如果目标HPFS文件系统是HPFSPOSIX协议,迁移服务器需要选择物理机(GPU裸金属)。具体限制请参考操作系统限制。 迁移服务器需要能访问ZOS进行下载数据,能够将云上 ZOS 中的对象文件下载到HPFS的指定文件夹。 将HPFS文件系统挂载至物理机或弹性云主机,具体操作请参考挂载文件系统。 操作步骤 具体操作请参考对象存储文件上云迁移工具,参考文档中云上迁移到本地场景: 云上迁移到本地的操作的配置,只需要将 migrations.conf 中的 reverse 参数配置为 true。 并在迁移工具中 migrations.conf 中 srcpath 指的是将云上文件迁移到本地后存放的文件夹,设置为HPFS文件系统的挂载目录。 注意 迁移工具将不会对该路径进行检测,如果指定的路径不存在,将会默认创建。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        数据迁移
        工具迁移
      • 什么是数据传输服务
        本页为您简要介绍什么是天翼云数据传输服务DTS。 TeleDB数据传输服务(Data Transmission Service,简称DTS)是由天翼云基于TeleDB v5.1.9版本孵化并演进而成的集数据迁移和数据实时同步于一体的数据传输服务。它作为数据流通的底座,能够帮助用户实现数据库不停业务快速稳定地迁移上云、构建数据实时同步通道实现数据库灾备/双活,保障业务数据高效、稳定地流通。 数据迁移 数据迁移是指在数据传输服务能够同时连通源数据库和目标数据库的情况下,只需要配置迁移的源、目标数据库实例及迁移对象即可完成整个数据迁移过程。数据迁移功能旨在帮助用户方便、快速地实现各种数据源之间的数据迁移,用户可通过EIP公网网络实现数据上云迁移、也可使用VPC网络实现天翼云内部跨实例数据迁移、数据库拆分扩容等业务场景。同时,数据迁移服务可实现不停机迁移,数据库不关机,业务不暂停,最大程度保障用户业务在迁移期间的可用性。 数据同步 数据同步是指在不同的系统之间,将数据通过同步技术从一个数据源拷贝到目标数据库,并保持目标库与源库数据的一致,实现关键业务的数据实时流动。数据同步功能旨在帮助用户实现两个数据源之间的数据实时同步。同步过程中可通过映射和条件过滤实现灵活同步。 基本特性 多数据源实时同步和迁移 支持MySQL>MySQL,PostgreSQL>PostgreSQL,SQL Server>SQL Server的实时数据同步和迁移。 支持DDS/MongoDB副本集>DDS/MongoDB副本集的数据迁移。 支持MySQL> PostgreSQL、MySQL>ClickHouse不同数据源之间的实时数据同步和迁移。 支持数据结构迁移、全量迁移、增量迁移,通过结构、全量、增量迁移可帮助用户将数据实时同步到目标端,实现业务平滑迁移。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        什么是数据传输服务
      • 创建迁移任务
        本节为您介绍数据库迁移工具中创建迁移任务。 1. 在数据库迁移工具首页,点击“数据传输”列表中的“数据迁移”页签。然后在数据迁移页面点击右上角的创建任务按钮,进行数据迁移任务创建 2. 当点击完创建任务按钮后,可看到添加任务页面,如下:
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        数据库全流程迁移演示
        创建迁移任务
      • 支持审计的云产品及关键操作列表
        分类 云产品 支持审计的关键操作列表 大数据 翼MapReduce 大数据 云搜索服务
        来自:
        帮助文档
        云审计
        用户指南
        支持审计的云产品及关键操作列表
      • 创建RDS备份迁移任务
        本章节主要介绍创建RDS备份迁移任务 支持的源和目标数据库 以下区域上线SQL Server备份迁移能力:贵州、杭州、广州4、苏州、上海4、青岛、西安2、长沙2、武汉2、哈尔滨、内蒙3、芜湖、福州、深圳、华北、北京2、石家庄、兰州、西宁、重庆 表 支持的数据库 备份文件版本 目标数据库版本 :: RDS for Microsoft SQL Server全量备份文件版本: Microsoft SQL Server 2008 Microsoft SQL Server 2012 Microsoft SQL Server 2014 Microsoft SQL Server 2016 Microsoft SQL Server 2017 RDS for Microsoft SQL Server Microsoft SQL Server 2008Microsoft SQL Server 2012Microsoft SQL Server 2014Microsoft SQL Server 2017 前提条件 已登录数据复制服务控制台。 满足备份迁移支持的数据库类型和版本,详情请参见备份迁移。 使用须知 介绍Microsoft SQL Server数据库备份迁移使用上的限制。 表 使用须知 类型名称 使用和操作限制 :: 数据库权限设置 在创建备份迁移任务前,请确定操作账号具有相应的RDS服务权限。 待还原数据库名称要求 待还原数据库名不能重复,且不能为以下名称(不区分大小写): msdb master model tempdb rdsadmin resource 数据库新名称要求 数据库新名称不能重复,且不能为以下名称(不区分大小写): msdb master model tempdb rdsadmin resource 数据库新名称长度为1~128个字节,组成为字母、数字、下划线、中划线。 数据库备份文件的来源 RDS全量备份:关系型数据库实例自动或手动生成的全量备份。 操作须知 目标数据库的可用磁盘空间大小至少为待还原数据库总数据量大小的1.5倍。 不支持高版本的数据库备份文件在低版本实例数据库上进行还原(例如从2017版本>2016版本的还原)。 企业版>标准版>Web版的还原存在一定失败的风险(取决于是否开启高版本的特性)。 迁移过程中,实例显示处于迁移状态,当前正在迁移的目标数据库默认取消高可用状态(如果是覆盖还原),迁移完成后自动恢复高可用状态。 迁移过程中正在还原的数据库请停止写入事务。 当RDS实例异常引发目标数据库发生主备切换时,会导致备份迁移失败,该情况下的迁移任务不可恢复。
        来自:
        帮助文档
        数据库复制
        用户指南
        备份迁移
        创建RDS备份迁移任务
      • (可选)创建迁移参数模板
        本章介绍如何快速创建迁移参数模板。 在设置迁移目的端前,您可以提前创建迁移参数模板。在设置迁移目的端时,选择已创建的迁移参数模板,可快速完成网络类型、网络限流、是否持续同步、区域、项目等参数设置。
        来自:
        帮助文档
        主机迁移服务SMS
        快速入门
        (可选)创建迁移参数模板
      • 主机详情页面概述
        本章节主要介绍翼MR Manager的主机详情页面。 进入到翼MR Manager以后,点击菜单“主机”,进入主机列表页面。 单击指定主机IP或主机名称进入到主机详情页面。如图所示: 详情页面下方依次为该主机的:主机状态、实例列表、告警历史信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        主机
        主机详情页面概述
      • Doris性能优化后TPC-H测试结果
        测试结果 查询名 开源版本(单位:毫秒) 天翼云翼MapReduce版本(单位:毫秒) :::::: q1 6239 5278 q2 575 418 q3 5780 4079 q4 3502 2519 q5 8456 6938 q6 916 352 q7 4347 3439 q8 4326 2230 q9 15572 12559 q10 6642 5327 q11 745 524 q12 1482 800 q13 6297 5160 q14 591 551 q15 988 942 q16 1146 1072 q17 2316 1106 q18 16009 15025 q19 3839 1653 q20 1912 1379 q21 9592 6986 q22 1444 1266 总耗时 102716 79603 测试结论 通过在500GB数据量的TPCH的对比测试,翼MapReduce中Doris基于ARM架构下的优化版本耗时79603毫秒,Doris开源社区2.1.2版本耗时102716毫秒。翼MapReduce中Doris基于ARM架构下的优化版本相比于Doris开源社区2.1.2版本性能提升1.29倍。
        来自:
        帮助文档
        翼MapReduce
        组件性能
        Doris性能优化后TPC-H测试结果
      • 创建迁移计划任务
        本节为您介绍云迁移服务迁移计划任务创建。 1. 在左侧导航栏中选择资源规划>迁移计划,能够在页面上创建迁移计划,如图1所示 。 图1 迁移计划列表页面。 2. 填写迁移计划基本信息进入下一步:资源选取,如图2所示。 图2 迁移计划基本信息编辑页面。 3. 选择需要的资源,对其进行确认。 4. 完成后可在列表中进行查看,如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        云迁移服务模块
        资源规划
        创建迁移计划任务
      • 将DDS/MongoDB分片集群迁移到DDS/MongoDB分片集群
        迁移规则须知 暂不支持同步包含TTL(Time To Live)索引的集合。若待同步的数据库中包含TTL索引,则可能会由于源库和目标库时区、时钟等的不一致,导致数据不一致。 不保留事务信息,即源库中的事务同步到目标库时会转变为单条的记录。 源端的分片信息会作为目标端分片的依据进行分片键的处理。 用户手动配置的任务为主任务,DTS会自动为源端每个分片建立独立的迁移子任务,在主任务详情中可以通过主子任务列表查询每个分片的迁移子任务信息。 操作须知 源库须开启Oplog日志。 源端、目标端实例的运行状态、复制状态必须正常。 在迁移时,如果源库、目标库进行主备切换,将会导致任务异常。 选择表级对象迁移时,增量迁移过程中不允许对表进行重命名操作。 如迁移对象为表级别,则单次迁移任务仅支持迁移最多1000张表。当超出数量限制,任务可能会报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 在DTS迁移期间,不允许有除DTS外的数据写入目标库,否则会导致源库与目标库数据不一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 在磁盘空间允许的情况下,建议源数据库oplog保存大小或时间越大越好。否则DTS在增量迁移时可能因无法获取oplog而导致任务失败。如果由于您所设置的oplog日志保存策略低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 全量初始化会并发执行INSERT操作,导致目标数据库的集合产生碎片,因此全量初始化完成后目标实例的集合空间比源实例的集合空间大。建议目标库的存储空间比源库大10%以上。 建议源和目标库的MongoDB的数据库版本保持一致,或者从低版本同步到高版本以保障兼容性。如为高版本同步至低版本,可能存在数据库兼容性问题。 执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移,否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将DDS/MongoDB分片集群迁移到DDS/MongoDB分片集群
      • 实例状态说明
        本页详细说明数据迁移实例的状态。 数据迁移实例状态 数据迁移实例的状态如下表: 状态 说明 开通中 实例正创建中 待配置 实例创建已成功,待配置任务信息 配置任务中 正在为实例配置任务 配置任务失败 为实例配置任务失败 未预检查 任务未进行预检查 未通过预检查 任务的预检查不通过 未启动 任务配置已完成,任务未开始或已暂停 运行中 实例(任务)正在运行中 已完成 实例(任务)已完成,除查看任务信息或释放实例外,不能执行其他操作 运行异常 实例在运行过程中出现异常 已冻结 1、用户主动执行退订操作完成后;2、账号余额小于或等于0时,系统会将该实例进行冻结 续订中 该实例被冻结后,执行续订操作,实例执行续订施工中 退订中 用户执行退订实例操作,退订实例施工中 注销中 用户执行了注销实例操作,注销实例施工中 已注销 实例已被注销,资源已被回收 数据迁移实例的任务运行状态 数据迁移实例的任务运行状态如下表: 状态 说明 对应实例状态 未预检查 任务还未预检查 未启动 未通过预检查 任务预检查存在不通过的检查项 未启动 预检查中 任务正在进行预检查 未启动 预检查通过 任务预检查不存在不通过的检查项 未启动 运行中 启动任务指令已发送至工作节点,等待节点启动 未启动 运行异常 任务执行异常 运行异常 已暂停 用户执行暂停操作后,任务将处于暂停状态 未启动 结构迁移中 任务正在执行结构迁移 运行中 结构迁移完成 任务的前置结构迁移或后置结构迁移已完成 运行中 全量开始 任务正在执行全量迁移 运行中 全量完成 任务的全量阶段已完成 运行中 增量开始 任务正在执行增量迁移 运行中 完成(终结) 不含增量的任务执行完成之后,任务将处于已完成状态 已完成
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        实例管理
        生命周期管理
        实例状态说明
      • 计费模式
        本章节主要介绍翼MapReduce服务的计费方式。 计费项 购买翼MapReduce集群的费用包含两个部分: 翼MapReduce服务管理费用 IaaS基础设施资源费用(云主机、物理机、云硬盘) 计费方式 翼MapReduce当前支持包年包月与按需两种计费方式。 • 包年/包月:根据集群购买时长,一次性支付集群费用。最短时长为1个月,实际可订购时长以页面显示为准。适用于需要长期稳定运行的服务。 • 按需:是一种更灵活的计费模式,适用于需要灵活调整资源、业务不稳定或资金有限的场景。在选择计费模式时,应结合业务需求和实际情况来做出合适的选择。 注意 若选择按需模式,请确保现金账户余额不低于100元。 到期 • 包年/包月:集群到期后进入保留期,此时无法在翼MapReduce管理控制台进行该集群的操作,无法调用相关接口,自动化监控或告警等运维也会停止。如果在保留期结束时您没有续费,集群将终止服务,系统中的数据也将被永久删除。 • 按需:不涉及到期问题,无需担心服务到期。 欠费 • 包年/包月:如果您选择使用云日志服务、对象存储等按需计费产品,余额欠费后,将会导致相关功能无法继续使用,请及时续费。 • 按需:集群按小时进行扣费,当余额不足,无法对上一个小时的费用进行支付时,会导致集群欠费并暂停服务。对于欠费导致暂停的集群,您可以在7天内充值,对相关集群进行续费。续费后,被冻结的集群可继续正常使用。请注意,冻结期进行的续费,是以冻结开始时间作为生效时间,您应当支付从进入冻结期开始到续费时的服务费用。
        来自:
        帮助文档
        翼MapReduce
        计费说明
        计费模式
      • 天翼云CT-RDS PostgreSQL迁移至自建人大金仓
        本节为您介绍天翼云CTRDS PostgreSQL迁移至自建人大金仓配置。 前提条件 自建人大金仓目标端版本为KingbaseESV7、V8版本 目标端权限要求 迁移模式 所需权限 全量迁移 数据库模式的owner角色 结构迁移 数据库模式的owner角色 增量迁移 用户为超级用户或者复制角色 稽核修复 数据库模式的owner角色 目标端配置请参照自建PostgreSQL迁移至自建人大金仓。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        天翼云CT-RDS PostgreSQL为源的迁移任务配置
        天翼云CT-RDS PostgreSQL迁移至自建人大金仓
      • 可靠性增强
        数据备份与恢复 为应对数据丢失或损坏对用户业务造成不利影响,在异常情况下快速恢复系统,翼MR根据用户业务的需要提供全量备份、增量备份和恢复功能。 自动备份 翼MR对集群管理系统Manager上的数据提供自动备份功能,根据制定的备份策略可自动备份集群上的数据,包括LdapServer、DBService的数据。 手动备份 在系统进行扩容、打补丁等重大操作前,需要通过手动备份集群管理系统的数据,以便在系统故障时,恢复集群管理系统功能。 为进一步提供系统的可靠性,在将Manager、HBase上的数据备份到第三方服务器时,也需要通过手动备份。 节点可靠性 操作系统健康状态监控 周期采集操作系统硬件资源使用率数据,包括CPU、内存、硬盘、网络等资源的使用率状态。 进程健康状态监控 翼MR提供业务实例的状态以及业务实例进程的健康指标的检查,能够让用户第一时间感知进程健康状态。 硬盘故障的自动处理 翼MR对开源版本进行了增强,可以监控各节点上的硬盘以及文件系统状态。如果出现异常,立即将相关分区移出存储池;如果硬盘恢复正常(通常是因为用户更换了新硬盘),也会将新硬盘重新加入业务运作。这样极大简化了维护人员的工作,更换故障硬盘可以在线完成;同时用户可以设置热备盘,从而极大缩减了故障硬盘的修复时间,有利于提高系统的可靠性。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        功能特性
        可靠性增强
      • 约束与限制
        数据库迁移通用限制和约束 1. CDM以批量迁移为主,仅支持有限的数据库增量迁移,不支持数据库实时增量迁移。 2. CDM支持的数据库整库迁移,仅支持数据表迁移,不支持存储过程、触发器、函数、视图等数据库对象迁移。 3. CDM仅适用于一次性将数据库迁移到云上的场景,包括同构数据库迁移和异构数据库迁移,不适合数据同步场景,比如容灾、实时同步。 4. CDM迁移数据库整库或数据表失败时,已经导入到目标表中的数据不会自动回滚,对于需要事务模式迁移的用户,可以配置“先导入到阶段表”参数,实现迁移失败时数据回滚。极端情况下,可能存在创建的阶段表或临时表无法自动删除,也需要用户手工清理(阶段表的表名以“cdmstage”结尾,例如:cdmtetcdmstage)。 5. CDM访问用户本地数据中心数据源时(例如本地自建的MySQL数据库),需要用户的数据源可支持Internet公网访问,并为CDM集群实例绑定弹性IP。这种方式下安全实践是:本地数据源通过防火墙或安全策略仅允许CDM弹性IP访问。 6. 仅支持常用的数据类型,字符串、数字、日期,对象类型有限支持,如果对象过大会出现无法迁移的问题。 7. 仅支持数据库字符集为GBK和UTF8。 8. 字段名不可使用&和%。 关系数据库迁移权限配置 常见关系数据库迁移需要的最小权限级: MySQL:INFORMATIONSCHEMA库的读权限,以及对数据表的读权限。 Oracle:需要该用户有resource角色,并在tablespace下有数据表的select权限。 达梦:具有该schema下select any table的权限。 DWS:需要表的schema usage权限和数据表的查询权限 SQL Server:用户需要有sysadmin权限。 PostgreSQL:角色拥有数据库下schema下表的select权限。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        约束与限制
      • 磁盘问题
        本节为您介绍磁盘相关问题。 CMS分区需要注意什么? 1. 与迁移源端分区挂载点对应。 2. 天翼云系统引导必须为第一块盘第一个分区,不能出现将引导写入其他位置的情况,否则会导致系统无法启动。 3. 注意/etc/fstab文件不允许错误。 4. 是否有挂载共享存储等。 windows server事件管理器如何查看? 使用“Win + R”快捷键打开系统运行,在运行中输入“eventvwr.msc”并单击回车后,打开事件查看器。 迁移源端有无磁盘个数、容量限制? 单盘容量无限制,磁盘个数应当确定在24个以下。若您出现磁盘个数超出情况,请您对源机磁盘做减少个数处理或通过工单进行技术咨询。 目标端开通与源机同磁盘规格,为何配置任务时会提示目标机空间小于源端空间? 由于天翼云处空间计算算法与本地、其他云厂商有一定差异,客户自行判断大小正常后可正常进行后续迁移。 自定义分区调整的大小范围? 普通分区、逻辑分区等在调整时都限制分区大小必须大于迁移源使用率。 迁移中迁移源端有新增的数据如何处理? CMS支持增量迁移,只需在任务配置时勾选增量迁移,CMS会监控增量数据,全量迁移完成后在增量迁移阶段进行增量数据迁移。
        来自:
        帮助文档
        云迁移服务CMS
        常见问题
        服务器迁移服务模块
        磁盘问题
      • 将Oracle迁移到TeleDB
        DTS CONTAINERALL; GRANT EXECUTE ON DBMSLOGMNRD TO C DTS CONTAINERALL; oracle 12c关闭CDB模式 如果仅作测试用可直接赋予最高权限,用SYS用户登录Oracle,如下创建DTS迁移用户: CREATE USER DTS IDENTIFIED BY " " DEFAULT TABLESPACE USERS QUOTA UNLIMITED ON USERS; GRANT DBA TO DTS; GRANT SELECT ON SYS.OBJ$ TO DTS; GRANT SELECT ON SYS.COL$ TO DTS; 如果需要授予数据迁移用户的精准权限,用SYS用户登录Oracle,如下创建DTS迁移用户: 要求该用户必须是CDB下的用户,且授权的权限必须在所有容器内都具备 CREATE USER DTS IDENTIFIED BY " " DEFAULT TABLESPACE USERS QUOTA UNLIMITED ON USERS; GRANT CREATE SESSION TO DTS; GRANT SET CONTAINER TO DTS; GRANT FLASHBACK ANY TABLE TO DTS; GRANT SELECT ANY TABLE TO DTS; GRANT INSET ANY TABLE TO DTS; GRANT UPDATE ANY TABLE TO DTS; GRANT DELETE ANY TABLE TO DTS; GRANT CREATE ANY TABLE TO DTS; GRANT DROP ANY TABLE TO DTS; GRANT COMMENT ANY TABLE TO DTS; GRANT LOCK ANY TABLE TO DTS; GRANT CREATE SEQUENCE TO DTS; GRANT SELECT ANY SEQUENCE TO DTS; GRANT SELECT ANY TRANSACTION TO DTS; GRANT SELECT ANY DICTIONARY TO DTS; GRANT SELECT ON SYS.OBJ$ TO DTS; GRANT SELECT ON SYS.COL$ TO DTS; GRANT SELECTCATALOGROLE TO DTS; GRANT EXECUTECATALOGROLE TO DTS; GRANT LOGMINING TO DTS; GRANT EXECUTE ON DBMSLOGMNR TO DTS; GRANT EXECUTE ON DBMSLOGMNRD TO DTS; 2. 创建目标库DTS用户 如果仅作测试,可直接使用TeleDB最高权限的用户root。 如果需要使用精准权限的用户,用root用户登录TeleDB,如下创建DTS迁移用户: CREATE USER dts WITH ENCRYPTED PASSWORD ' '; GRANT CREATE, TEMPORARY, CONNECT ON DATABASE TO dts; 如果要做增量迁移且迁移的表包含外键,那么除了上述权限外,还要保证该用户具有在会话级别执行SET sessionreplicationrole 'replica'的权限。可登录TeleDB控制台,将该参数设置并重启。 3. 如果有增量迁移,需按照如下方法开启Oracle的归档日志 非RAC模式: SELECT name,logmode from V$DATABASE; 如果没有开启,使用sqlplus且用SYS用户以sysdba方式登录后,依次执行以下命令: SHUTDOWN IMMEDIATE; STARTUP MOUNT; ALTER DATABASE ARCHIVELOG; ALTER DATABASE OPEN; RAC模式: 在RAC ORACLE 的某一个节点的 shell 中,关闭、启动、挂载某一个数据库: srvctl stop database d srvctl start database d o mount 使用DBA 权限账号登陆该数据库,并开启归档日志: alter database archivelog; 在RAC ORACLE 的某一个节点的 shell 中, 重启数据库: srvctl stop database d srvctl start database d 4. 如果有增量迁移,需开启Oracle的详细补充日志 使用以下命令,确认supplemental logging 是否开启: SELECT supplementallogdatamin, supplementallogdatapk, supplementallogdataall FROM V$DATABASE; 如果三列存在NO,那么先开启补充最小日志supplementallogdatamin: ALTER DATABASE ADD SUPPLEMENTAL LOG DATA; 开启全补充日志,增加ALL、主键、Unique Index: ALTER DATABASE ADD SUPPLEMENTAL LOG DATA(ALL, PRIMARY KEY, UNIQUE) COLUMNS; 5. 确保所有容器处于打开状态 如果有增量迁移,且CDB模式开启,且有多个容器数据库,则要保证这写可插拔的容器数据库处于打开状态,不然无法启动增量迁移。 注意必须用SYS用户执行 SELECT conid, name, openmode, restricted FROM v$pdbs; 以上查询结果中,除了SEED容器外,OPENMODE字段的值必须为READ WRITE。 6. 确认迁移对象中是否存在无主键表 如果勾选增量迁移,迁移对象中不能包含无主键表: 替换 YOURSCHEMANAME 为你的模式名 SELECT t.tablename FROM alltables t LEFT JOIN allconstraints c ON t.owner c.owner AND t.tablename c.tablename AND c.constrainttype 'P'WHERE t.owner ' 使用以上查询语句可以筛选出某个schema下的所有无主键表,将这些表排除于增量迁移之外。 7. 确认归档日志保留时间 如果勾选增量迁移,为了避免增量迁移过程中由于一些故障导致同步中断的情况,需要至少保留37天的归档日志来确保处理这些情况的窗口期。否则,可能导致无法将同步从故障中恢复。 RMAN> SHOW RETENTION POLICY; 8. 确认待迁移对象中是否包含触发器 如果将触发器作为结构的一部分,在DTS的调度逻辑上,触发器会先于全量迁移被迁移到TeleDB。这样可能会影响到全量迁移,导致数据不一致。 建议将触发器放到全量迁移之后,再新建一个迁移任务进行迁移。 9. 数据及业务信息统计 如果为非测试任务,需要在迁移之前统计业务以及迁移信息,方便进行迁移任务规划。 资源信息: 源库规格信息,例如4C8G + 500G + SSD 目标库磁盘信息,例如4C8G + 500G + SSD 网络情况,例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息: 总数据量,例如30GB 总库表数量,例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级,例如:一天的归档日志新增大概100GB 是否所有表都有主键,建议迁移前完善主键,提高性能,方便运维。如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类: 数据迁移是否可停业务,例:能/不能 增量迁移情况,例:开启增量迁移,持续时间5天 可停业务时间长度,例:服务停机时间预计48小时 业务中是否存在百万级别的大事务,例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。 操作步骤 1. 订购DTS数据迁移实例。 2. 进入实例配置页面。DTS实例创建成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面进行配置: 3. 配置源库及目标库信息。 1. 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 2. 完成上述信息的填写后,单击源数据库和目标数据库的测试连接按钮进行数据库连接测试,检查数据库能否正常连接。 3. 注意 ORACLE如果要进行增量同步,不能使用SYS/SYSTEM系统用户。 4. 配置迁移对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置迁移对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,选中后单击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查和启动迁移。 完成迁移对象和高级配置后,单击“下一步预检查”,进入实例配置第三个步骤的【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查内容 检查点 检查源库连通性 源库网络能够连通 检查目标库连通性 目标库网络能够连通 检查源库用户权限 若不包含增量,检查提供的源库账号是否具有以下权限: CREATE SESSION;CATALOGROLE、ANY DICTIONARY、待迁移表的select权限若包含增量,还需要检查以下权限:SET CONTAINER,FLASHBACK ANY TABLE,SELECT ANY TABLE,SELECTCATALOGROLE,EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,CREATE TABLE,LOCK ANY TABLE,CREATE SEQUENCE,EXECUTE ON DBMSLOGMNR,EXECUTE ON DBMSLOGMNRD,SELECT ANY DICTIONARY,SELECT ON SYS.OBJ,SELECT ON SYS.COL,CREATE ANY TABLE,COMMENT ANY TABLE,DROP ANY TABLE 检查目标库用户权限 检查提供的目标库账号是否具有登录信息database下创建schema的权限。 检查目标库PostgreSql版本 目标库的PostgreSql版本是否不低于9.2 检查待迁移表是否存在主键 检查待迁移表是否都存在主键,只有全量迁移时,如果发现存在没有主键的表,将提出警告(无主键的表可能会导致数据不一致);勾选了增量迁移,如果发现存在没有主键的表,预检查将不通过(增量迁移功能依赖主键) 检查待迁移表约束完整性 检查待迁移表依赖的表对象是否包含在待迁移对象中,若存在依赖的对象未被选择,检查不通过 检查源库最大连接数 检查源库最大连接数是否不小于300,若最大连接数小于300,给出告警 检查目标库最大连接数 检查目标库最大连接数是否不小于300,若最大连接数小于300,给出告警 检查同名对象存在性 检查目标库中是否存在和待迁移库同名的库(映射后),若存在,检查该库下面是否存在同名的表(映射后)。如果有,将提出警告。 检查源数据库Oracle的表字段的数据类型能否都迁移到目标库 待迁移表中不能存在Oracle的独有的字段类型,ROWID、UROWID、XMLTYPE、BFILE、SDOGEOMETRY等类型 检查源库对象是否仅大小写不同 迁移对象中是否包含仅大小写不同的对象时,预检查不通过 检查待迁移库名合法性 若待迁移库名中包含非法字符,检查不通过 检查待迁移表名合法性 若待迁移表名中包含非法字符,检查不通过 检查源库字符集是否为支持的字符集 源库字符集支持以下字符集:ZHS16GBK,AL32UTF8,UTF8,US7ASCII,WE8MSWIN1252若源库字符集不属于以上字符集,预检查将不通过 检查当前登录账号是否个人账号 勾选增量时,检查源库的迁移用户是否为个人账号,若账号为系统用户,检查不通过 检查源库是否开启归档日志 勾选增量时,检查源库是否开启归档日志,若未开启,检查不通过 检查源库是否开启补充日志 勾选增量时,检查源库是否开启补充日志,若未开启,检查不通过 如果预检查通过,可单击【预检查】页面底部的“启动迁移”按钮,开始迁移任务。或者直接单击”数据迁移“列表,返回数据迁移主界面,任务将显示为”未启动“状态。 勾选任务,单击 开始任务 ,任务将变为 运行中 ,直到全量迁移完成,或者进入增量迁移状态。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将Oracle迁移到TeleDB
      • 新建整库迁移作业
        本章节主要介绍新建整库迁移作业。 操作场景 CDM支持在同构、异构数据源之间进行整库迁移,迁移原理与新建表/文件迁移作业相同,关系型数据库的每张表、Redis的每个键前缀、Elasticsearch的每个类型、MongoDB的每个集合都会作为一个子任务并发执行。 支持整库迁移的数据源请参见支持的数据源中整库迁移支持的数据源类型。 自动建表时的字段类型映射 CDM迁移数据库时支持在目的端自动建表。CDM在数据仓库服务(Data Warehouse Service,简称DWS)中自动建表时,DWS的表与源表的字段类型映射关系如下图所示。例如使用CDM将Oracle整库迁移到DWS,CDM在DWS上自动建表,会将Oracle的 NUMBER(3,0) 字段映射到DWS的 SMALLINT 。 详见下图:DWS端自动建表时的字段映射 前提条件 已新建连接。 CDM集群与待迁移数据源可以正常通信。 操作步骤 1.进入CDM主界面,单击左侧导航上的“集群管理”,选择集群后的“作业管理”。 2.选择“整库迁移 > 新建作业”,进入作业参数配置界面。 3.配置源端作业参数,根据待迁移的数据库类型配置对应参数,如下表所示。 源端作业参数 源端数据库类型 源端参数 参数说明 取值样例 DWS FusionInsight LibrA MySQL PostgreSQL SQL Server Oracle SAPHANA MYCAT 模式或表空间 “使用SQL语句”选择“否”时,显示该参数,表示待抽取数据的模式或表空间名称。单击输入框后面的按钮可进入模式选择界面,用户也可以直接输入模式或表空间名称。 如果选择界面没有待选择的模式或表空间,请确认对应连接里的帐号是否有元数据查询的权限。 schema DWS FusionInsight LibrA MySQL PostgreSQL SQL Server Oracle SAPHANA MYCAT Where子句 该参数适用于整库迁移中的所有子表,配置子表抽取范围的Where子句,不配置时抽取整表。如果待迁移的表中没有Where子句的字段,则迁移失败。 该参数支持配置为时间宏变量,实现抽取指定日期的数据。 age > 18 and age < 60 DWS FusionInsight LibrA MySQL PostgreSQL SQL Server Oracle SAPHANA MYCAT 分区字段是否允许空值 选择分区字段是否允许空值。 是 HIVE 数据库名称 待迁移的数据库名称,源连接中配置的用户需要拥有读取该数据库的权限。 hivedb HBASE CloudTable 起始时间 起始时间(包含该值)。格式为'yyyyMMdd hh:mm:ss',支持dateformat时间宏变量函数。例如:"20171231 20:00:00"或"{dateformat(yyyyMMdd, 1, DAY)} 02:00:00"或 {dateformat(yyyyMMdd HH:mm:ss, 1, DAY)} HBASE CloudTable 终止时间 终止时间(不包含该值)。格式为'yyyyMMdd hh:mm:ss',支持dateformat时间宏变量函数。例如:"20180101 20:00:00"或"{dateformat(yyyyMMdd, 1, DAY)} 02:00:00"或" {dateformat(yyyyMMdd HH:mm:ss, 1, DAY)}" Redis 键过滤字符 填写键过滤字符后,将迁移符合条件的键。例如:a,迁移所有: DDS MongoDB 数据库名称 待迁移的数据库名称,源连接中配置的用户需要拥有读取该数据库的权限。 mongodb DDS MongDB 查询筛选 创建用于匹配文档的筛选器。例如:{HTTPStatusCode:{ $ gt:"400",$lt:"500"},HTTPMethod:"GET"}。 Elasticsearch CSS 索引 待抽取数据的索引,支持配置为通配符,一次迁移多个符合通配符条件的索引。例如这里配置为cdm时,CDM将迁移所有名称为cdm开头的索引:cdm01、cdmB3、cdm45…… 如果源端配置为迁移多个索引时,目的端的作业参数“索引”将不允许配置。 cdm 4.配置目的端作业参数,根据待导入数据的云服务配置对应参数,如下表所示。 目的端作业参数 源端数据库类型 源端参数 参数说明 取值样例 DWS FusionInsight LibrA MySQL PostgreSQL SQL Server 整库迁移到关系数据库时,目的端作业参数请参见配置常见关系数据库目的端参数。 schema MRS HIVE 整库迁移到MRS HIVE时,目的端作业参数请参见配置Hive目的端参数。 hivedb MRS HBASE CloudTable 整库迁移到MRSHBASE或CloudTable时,目的端作业参数请参见配置HBase/CloudTable目的端参数。 是 MRS HDFS 整库迁移到MRS HDFS时,目的端作业参数请参见配置HDFS目的端参数。 OBS 整库迁移到OBS时,目的端作业参数请参见配置OBS目的端参数。 DCS 整库迁移到DCS时,目的端作业参数请参见配置DCS目的端参数。 DDS 数据库名称 待迁移的数据库名称,源连接中配置的用户需要拥有读取该数据库的权限。 mongodb 迁移行为 新增 有则替换,无则新增 CSS 索引 待抽取数据的索引,支持配置为通配符,一次迁移多个符合通配符条件的索引。 例如这里配置为cdm时,CDM将迁移所有名称为cdm开头的索引:cdm01、cdmB3、cdm45…… 如果源端配置为迁移多个索引时,目的端的作业参数“索引”将不允许配置。 cdm 5.如果是关系型数据库整库迁移,则作业参数配置完成后,单击“下一步”会进入表的选择界面,您可以根据自己的需求选择迁移哪些表到目的端。 6.单击“下一步”配置任务参数。 详见下图:任务参数 各参数说明如下表所示。 表任务配置参数 参数 说明 取值样例 同时执行的表个数 抽取时并发执行的表的数量。 3 抽取并发数 设置同时执行的抽取任务数,一般保持默认即可。 1 是否写入脏数据 选择是否记录脏数据,默认不记录脏数据。 是 脏数据写入连接 当“是否写入脏数据”为“是”才显示该参数。 脏数据要写入的连接,目前只支持写入到OBS连接。 obslink OBS桶 当“脏数据写入连接”为OBS类型的连接时,才显示该参数。 写入脏数据的OBS桶的名称。 dirtydata 脏数据目录 “是否写入脏数据”选择为“是”时,该参数才显示。 OBS上存储脏数据的目录,只有在配置了脏数据目录的情况下才会记录脏数据。 用户可以进入脏数据目录,查看作业执行过程中处理失败的数据或者被清洗过滤掉的数据,针对该数据可以查看源数据中哪些数据不符合转换、清洗规则。 /user/dirtydir 单个分片的最大错误记录数 当“是否写入脏数据”为“是”才显示该参数。 单个map的错误记录超过设置的最大错误记录数则任务自动结束,已经导入的数据不支持回退。推荐使用临时表作为导入的目标表,待导入成功后再改名或合并到最终数据表。 0 7.单击“保存”,或者“保存并运行”。 作业任务启动后,每个待迁移的表都会生成一个子任务,单击整库迁移的作业名称,可查看子任务列表。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        新建整库迁移作业
      • 自建MySQL迁移至自建PostgreSQL
        本节为您介绍自建MySQL迁移至自建PostgreSQL任务配置。 前提条件 (1)自建PostgreSQL目标端版本为9.5.x、9.6.x、10.x、11.x、12.x、13.x、14.x版本。 (2)结构迁移只支持表结构迁移。 目标端权限要求 迁移模式 所需权限 基础权限 模式层级:USAGE 表层级: SELECT 全量迁移 需具备基础权限 结构迁移 需具备基础权限,且具备模式层级的CREATE权限 增量迁移 需具备基础权限,且用户为超级用户或者复制角色 复制角色赋予方法:alter user 用户名 with replication 稽核修复 需具备基础权限 目标端配置 数据源类型 选定为PostgreSQL,可将源端迁移至版本范围内的PostgreSQL数据库 服务器IP 目标端数据库的连接IP 端口号 目标端数据库的端口 用户名 用于连接待目标端数据库的用户名称 密码 用于连接待目标端数据库的用户的密码 数据库 目标端用于接收源端数据的数据库名称 模式 目标端用于接收源端数据的模式(schema)名称
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建MySQL为源的迁移任务配置
        自建MySQL迁移至自建PostgreSQL
      • 天翼云CT-RDS MySQL迁移至自建人大金仓
        本环节为您介绍 天翼云CTRDS MySQL迁移至自建人大金仓任务配置。 前提条件 自建人大金仓目标端版本为KingbaseESV7、V8版本 目标端权限要求 迁移模式 所需权限 全量迁移 数据库模式的owner角色 结构迁移 数据库模式的owner角色 增量迁移 用户为超级用户或者复制角色 稽核修复 数据库模式的owner角色 目标端配置请参照自建MySQL迁移至自建人大金仓。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        天翼云CT-RDS MySQL为源的迁移任务配置
        天翼云CT-RDS MySQL迁移至自建人大金仓
      • 资源迁移
        本章节主要介绍资源迁移。 当您需要将一个工作空间中的资源迁移至另一个工作空间,可使用数据治理中心DataArts Studio的资源迁移功能,对资源进行导入导出。 资源迁移支持迁移的资源包含数据服务、元数据分类、元数据标签、元数据采集任务和管理中心数据连接。 前提条件 资源导入导出功能依赖于OBS服务。 系统中存在可迁移的资源,参见创建数据连接章节中的 创建数据连接表,标签管理对元数据进行分类和标签的添加,任务管理完成采集任务的创建和 发布API中发布的API。 约束条件 名称相同的采集任务不支持被重复迁移。 名称相同的分类和标签不支持被重复迁移。 导入导出的资源以json格式存储。 由于安全原因,导出连接时没有导出连接密码,需要在导入时自行输入。 导出资源 1.在DataArts Studio控制台首页,选择对应工作空间的“管理中心”模块,进入管理中心页面。详见下图选择管理中心。 2.在管理中心页面,单击“资源迁移”,进入资源迁移页面。详见下图资源迁移。 3.单击“新建导出”,配置文件的OBS存储位置和文件名称。如无OBS服务,仅需设置导出文件名即可。详见下图选择导出文件。 4.单击“下一步”,勾选导出的模块。详见下图勾选导出的模块。 5.单击“下一步”,等待导出完成,资源包导出到步骤3所设置的OBS存储位置。如无OBS服务,则导出完成后可在资源迁移的对应迁移任务行中,单击“下载”获取导出的资源包。 详见下图:导出完成 导出资源耗时1分钟仍未显示结果则表示导出失败,请重试。如果仍然无法导出,请联系客服或技术支持人员协助解决。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        管理控制台
        资源迁移
      • 变更备机的可用区
        本节介绍了变更备机可用区的内容。 操作场景 您可以将主备实例的备机迁移至同一区域内的其它可用区。 约束限制 RDS for MySQL 5.6、5.7、8.0版本的主备实例支持备机可用区迁移功能。 业务高峰期批量写操作可能会导致迁移失败,为确保迁移成功,请选择业务低峰期操作。 迁移期间将短暂停止DDL语句和event定时任务,请选择业务低峰期操作,避免业务异常中断。 如果备机迁移出现问题,任务中心会显示任务状态为失败,但是实例管理页面的运行状态一栏仍会显示“备机迁移中”,此时实例进入了锁保护状态,无法进行操作,您可以通过提交客服工单的方式来解决此问题。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击“操作”列的“更多 > 可用区迁移”,进入“可用区迁移”页面。 步骤 5 在“可用区迁移”页面,选择目标可用区,单击“提交”。 步骤 6 迁移可用区成功后,单击“返回云数据库RDS列表”,用户可以在“实例管理”页面对其进行查看和管理。 可用区迁移过程中,状态显示为“备机迁移中”。您可以通过“任务中心”查看详细进度。具体请参见任务中心。 在实例列表的右上角,单击 刷新列表,可查看到可用区迁移完成后,实例状态显示为“正常”。 在“基本信息”页面的“可用区”处,可以查看到备机迁移后所在的可用区。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        变更备机的可用区
      • 退订
        本章节主要介绍翼MapReduce服务的退订操作。 按需计费 按需购买的集群无需退订,直接删除即可。 请登录天翼云官网,进入“控制中心”,选择“翼MapReduce”,进入集群列表,即可对您的集群进行删除操作。 删除前建议您做好数据备份。 1.登录天翼云官网,进入控制中心; 2.进入控制中心,选择资源池,选择“翼MapReduce”; 3.进入集群列表,找到需要删除的集群,选择资源信息,点击删除。 包周期计费 包年包月购买的集群,可参考以上步骤进入集群列表,在需要退订的包年包月集群对应的“操作”列中,单击“退订”即可。
        来自:
        帮助文档
        翼MapReduce
        计费说明
        退订
      • 待迁移的对象在目标库已存在(xxx already exists)
        本页为结构迁移/同步阶段报待迁移的对象在目标库已存在(xxx already exists)错误的场景、关键词、可能原因和修复方法建议。 场景描述 包含结构迁移/同步的任务,在进行结构迁移时失败,错误信息提示“xxx already exists”。 关键词 xxx already exists 可能原因 待迁移对象在目标库已经存在同名的对象。 修复方法 1. 暂停任务。 2. 将目标库存在的对象删除后重新启动任务。 3. 若以上操作仍不能解决问题,请联系DTS客服处理。
        来自:
        帮助文档
        数据传输服务DTS
        故障排除
        失败案例
        结构迁移/同步案例
        待迁移的对象在目标库已存在(xxx already exists)
      • 任务批量删除
        本节为您介绍数据库迁移工具提供任务批量删除功能。 数据库迁移工具提供任务批量删除功能,用户可勾选要删除任务,再点击“批量删除”按钮,一次性删除多个迁移任务。 操作步骤 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“迁移评估”。 2. 勾选要删除的任务,然后点击 “批量删除“按钮,再点击“确定”即可完成任务信息删除。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务批量删除
      • 任务删除
        本节为您介绍云迁移服务CMS中数据库迁移工具提供任务删除功能。 数据库迁移工具提供任务删除功能,用户可通过点击评估任务的“删除”按钮,删除评估任务。 操作步骤 1. 进入“数据库迁移工具”,点击“数据传输”展开菜单,点击“迁移评估”。 2. 点击“删除”按钮,并点击“确定“按钮,即可完成任务信息删除。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        迁移评估
        任务管理
        任务删除
      • 场景:全量备份迁移
        本章节内容主要介绍全量备份迁移 全量备份迁移场景为一次性数据库迁移,需要停止业务,将导出的Microsoft SQL Server全量备份文件上传至对象存储服务,然后恢复到目标数据库。 本小节将详细介绍通全量备份迁移的步骤。 迁移示意图 图 全量迁移 迁移流程 图 迁移流程 操作步骤 1.导出数据库全量备份文件,具体操作请参见导出数据库备份文件。 2.将导出的备份文件上传至OBS桶内,具体操作请参见上传备份文件。 3.登录数据库复制服务控制台。 4.单击管理控制台左上角的,选择区域和项目。 5.在“所有服务”或“服务列表”中,选择“数据库>数据库复制服务”,进入数据库复制服务信息页面。 6.在页面左侧导航栏,选择“备份迁移管理”,单击“创建迁移任务”,进入“选定备份”页面。 7.填写迁移任务信息和备份文件信息,单击“下一步”。 图 迁移任务信息 表 迁移任务信息 参数 描述 任务名称 任务名称在464位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 描述 描述不能超过256位,且不能包含!<>&'"特殊字符。 数据库类型 选择Microsoft SQL Server数据库引擎。 备份文件来源 选择自建OBS桶。 桶名 选择备份文件所在的桶名,以及该桶目录下已经上传好的全量备份文件。说明:o Microsoft SQL Server的备份文件需要选择OBS桶目录下“.bak”格式的文件名,且可以同时选择多个备份文件。该桶的桶名、备份文件名或者路径中不能包含中文。 在“选定目标”页面,填选数据库信息后,单击“下一步”。 图 全量迁移数据库信息 Microsoft SQL Server数据库信息 参数 描述 目标RDS实例名称 选择目标RDS实例。若没有合适的目标RDS数据库实例,请先创建所需的目标数据库实例,可参见《关系型数据库快速入门》中“SQL Server快速入门”下的“购买实例”章节。 待恢复备份类型 选择全量备份。全量备份指备份文件是完整备份类型的备份。说明:一次性数据库迁移,则需要停止业务,上传全量备份进行恢复。 最后一个备份 当前进行的是一次性全量备份迁移,该参数选择“是”。 覆盖还原 覆盖还原是指目标端数据库实例已经存在同名的数据库,备份还原中是否要覆盖已存在的数据库。您可以根据业务需求,选择是否进行覆盖还原。说明:若选择此项,目标数据库实例中与待还原数据库同名的数据库将会被覆盖,请谨慎操作。 执行预校验 备份迁移任务是否执行预校验,默认为是。o 是:为保证迁移成功,提前识别潜在问题,在恢复前对备份文件的合法性、完整性、连续性、版本兼容性等进行校验。否:不执行预校验,迁移速度更快,但需要用户判断备份文件的合法性、完整性、连续性、版本兼容性等问题。 指定需要恢复的数据库 您可以选择将全部数据库或部分数据库进行恢复。o 全部数据库:恢复备份文件中所有的数据库,不需要输入待还原数据库名称,默认还原备份文件里的所有数据库。o 部分数据库:恢复备份文件中的部分数据库,需要输入待还原数据库名称。全量备份需要保证指定恢复的数据库始终一致。 9.在“确认信息”页面核对配置详情后,勾选协议,单击“下一步”。 10.返回“备份迁移管理”页面,在任务列表中,观察对应的恢复任务的状态为“恢复中”,恢复成功后,任务状态显示“成功”。
        来自:
        帮助文档
        数据库复制
        最佳实践
        本地Microsoft SQL Server备份迁移到云上RDS for SQL Server实例
        场景:全量备份迁移
      • 告警历史
        本章节主要介绍翼MR Manager的告警历史特性。 进入到翼MR Manager以后,点击菜单“监控与告警 > 告警历史”,进入告警历史页面。如图所示: 页面上方为查询区域,各种查询条件进行组合查询。 支持查询集群服务级、角色实例级、主机级的告警信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        监控与告警
        告警历史
      • 1
      • ...
      • 18
      • 19
      • 20
      • 21
      • 22
      • ...
      • 106
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      公共算力服务

      模型推理服务

      科研助手

      推荐文档

      天翼云进阶之路②:Centos更改MySQL数据库目录位置

      云课堂 第七课:使用对等连接在天翼云两个用户的云网络

      产品优势

      慢日志查询

      邀请参会方

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号