云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼迁移_相关内容
      • 通过数据复制服务迁移数据
        数据复制服务(Data Replication Service,简称DRS)支持在多种场景下,将源库数据迁移到目标文档数据库实例,最大限度允许迁移过程中业务继续对外提供使用,有效地将业务系统中断时间和业务影响最小化,完成数据库平滑迁移工作。 前提条件 使用数据复制服务进行数据迁移时,为了提高数据迁移的稳定性和安全性,请先阅读以确保数据库实例已满足迁移条件。 迁移场景 全量迁移 该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程等。选择 “全量迁移” 模式,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量迁移 该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程中完成的目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将远端和目标端数据库保持数据持续一致。选择 “全量+增量” 迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 支持的源和目标数据库 表 支持的数据库 源数据库 目标数据库 本地自建Mongo数据库(3.2、3.4、4.0版本 ECS自建Mongo数据库(3.2、3.4、4.0版本 其他云上Mongo数据库(3.2、3.4、4.0版本,不支持腾讯云3.2版本) DDS实例(3.4、4.0版本) DDS实例(3.4、4.0、4.2版本) 说明:仅支持目标库版本等于或高于源库版本。 支持的迁移对象范围 在使用DRS进行迁移时,不同类型的迁移任务,支持的迁移对象范围不同,详细情况可参考下表。 DRS会根据用户选择,在“预检查”阶段对迁移对象进行自动检查 。 支持的迁移对象 类型名称 使用须知 迁移对象范围 迁移对象选择维度:支持选择表级、库级或实例级(全部迁移)。 支持的迁移对象 : 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用集合、视图引用视图等。 副本集:目前只支持集合(包括验证器,是否是固定集合),索引和视图的迁移。− 集群:目前只支持集合(包括验证器,是否是固定集合),分片键,索引和视图的迁移。 单节点:目前只支持集合(包括验证器,是否是固定集合),索引和视图的迁移。− 只支持迁移用户数据和源数据库的账号信息,不支持迁移系统库(如local、admin、config等)和系统集合,如果业务数据在系统库下,则需要先将业务数据移动到用户数据库下,可以使用renameCollection命令进行移出。 不支持视图的创建语句中有正则表达式。 不支持id字段没有索引的集合。 不支持BinData()的第一个参数为2。 不支持范围分片的情况下maxKey当主键。 支持迁移的对象有如下限制: 源数据库的库名不能包含/."和空格,集合名和视图名中不能包含字符或以system.开头。 数据库账号权限要求 在使用DRS进行迁移时,连接源库和目标库的数据库账号需要满足以下权限要求,才能启动实时迁移任务。不同类型的迁移任务,需要的账号权限也不同,详细可参考下表进行赋权。DRS会在“预检查”阶段对数据库账号权限进行自动检查,并给出处理建议。 建议创建单独用于DRS任务连接的数据库帐号,避免因为数据库帐号密码修改,导致的任务连接失败。 连接源和目标数据库的帐号密码修改后,请尽快修改DRS任务中的连接信息,避免任务连接失败后自动重试,导致数据库帐号被锁定影响使用。 表 数据库账号权限 类型名称 全量迁移 全量+增量迁移 源数据库连接账号 副本集:连接源数据库的用户需要有admin库的readAnyDatabase权限。 单节点:连接源数据库的用户需要有admin库的readAnyDatabase权限。 集群:连接源数据库的用户需要有admin库的readAnyDatabase权限,有config库的read权限。 果需要迁移源数据库用户和角色信息,连接源数据库和目标库数据库的用户需要有admin数据库的系统表system.users、system.roles的read权限。 副本集:连接源数据库的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 单节点:连接源数据库的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 集群:连接源数据库mongos节点的用户需要有admin库的readAnyDatabase权限,有config库的read权限,连接源数据库分片节点的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 如果需要迁移源数据库用户和角色信息,连接源数据库和目标库数据库的用户需要有admin数据库的系统表system.users、system.roles的read权限。 目标数据库连接账号 连接目标数据库的用户需要有admin库的dbAdminAnyDatabase权限,有目标数据库的readWrite权限。对于目标数据库是集群的实例,迁移账号还要有admin库的clusterManager权限。 连接目标数据库的用户需要有admin库的dbAdminAnyDatabase权限,有目标数据库的readWrite权限。对于目标数据库是集群的实例,迁移账号还要有admin库的clusterManager权限。 用户赋权参考语句:如连接源数据库的用户需要有admin库的readAnyDatabase权限和config库的read权限。 db.grantRolesToUser("用户名",[{role:"readAnyDatabase",db:"admin"}, {role:"read",db:"config"}]) 迁移操作 具体的迁移操作请参考《数据复制服务最佳实践》中“MongoDB数据库迁移”章节。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过数据复制服务迁移数据
      • 天翼云ECS实例间迁移最佳实践
        同账户下CTECS区域间迁移(C区域迁移至D区域) 操作前提:D区域需支持云迁移服务,并且在D区域使用云迁移服务。 1. 在C区域云主机安装CMSAgent,将迁移源上报;具体步骤请参见在源端安装迁移Agent。 2. 在D区域创建目标机,具体步骤请参见创建目标机,检测目标机和绑定目标机。 3. 绑定成功后可以配置并启动迁移任务。具体步骤请参见迁移任务配置与开始全量迁移。 4. 迁移任务配置完成后,单击“开始迁移”正常执行后续迁移操作,即可实现同账户下CTECS云主机跨区域迁移。
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        服务器迁移服务模块
        天翼云ECS实例间迁移最佳实践
      • 云迁移服务模块
        本节为您介绍云迁移服务优势。 智能评估管理 云迁移服务CMS提供了服务器、数据库和对象存储的成本评估功能,帮助企业更好地了解成本情况,辅助上云决策。此外,服务支持资源发现、资源映射和迁移管理,实现迁移全周期管理。 覆盖场景全面 云迁移服务CMS具备服务器、数据库以及对象存储迁移工具,可根据实际应用场景选择同构/异构服务器迁移工具、同构/异构数据库迁移工具以及对象存储迁移工具辅助迁移。 高效的上云路径 云迁移服务为企业提供了高效的上云方案,通过云迁移平台将迁移过程业务化,通过业务化管理帮助企业以更快的速度完成上云。 全面可视化管理 云迁移服务实现了迁移生命周期的一站式、可视化管理,用户能够通过直观的界面全面了解迁移过程的状态和进展,便于管理和监控。 服务器迁移 云迁移服务CMS提供了完备的服务器迁移工具,适配市面上主流的操作系统,在传输、连接、控制平面进行安全设计,同时平衡易用性与灵活性,提升用户使用体验。 数据库迁移 云迁移服务CMS提供了完备的数据库迁移工具,支持同构/异构数据库数据迁移。可实现达梦、人大金仓、TiDB、TeleDB等作为目标数据库进行异构数据库迁移。 数据迁移 云迁移服务CMS的数据迁移工具,具备可视化、稳定、易用的特点,支持将来自亚马逊、阿里云、腾讯云、华为云、天翼云 OOS 和 XOS 的数据迁移到ZOS 进行存储,并提供了灵活的迁移策略,通过功能组合满足各类需求与场景,实现企业数据快速上云。
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        产品优势
        云迁移服务模块
      • 购买
        本章节仅对开通翼MapReduce服务的基本流程进行介绍。 1.注册天翼云官网账号,登录后进入官网首页; 2.在官网首页,单击左上角“产品”,【大数据>数据分析>翼MapReduce】; 3.在【翼MapReduce】界面,单击【立即开通】; 4.在翼MapReduce服务集群创建页面根据实际需求选择区域、计费模式、购买时长,输入集群名称,选择版本类型、集群版本等信息,并根据需要选择组件、集群规格等配置信息后,单击【立即创建】; 5.按页面提示,勾选相关协议,进入支付页面完成付款。
        来自:
        帮助文档
        翼MapReduce
        计费说明
        购买
      • 步骤二:查询迁移进度
        本节主要介绍步骤二:查询迁移进度 迁移进度展示了迁移过程中,实时迁移任务的表迁移进度,可以帮助您了解迁移完成的情况。 DRS提供流式进度展示,帮助您在迁移过程中实时了解迁移进展。全量迁移过程中,展示迁移进度总览和迁移明细。 进度总览中,您可以查看结构、数据、索引迁移的进度,当显示为100%时,表示该项迁移完成。过程中,数据和索引的迁移相对较慢。 迁移明细中,您可以查看具体迁移对象的迁移进度,当“对象数目”和“已迁移数目”相等时,表示该对象已经迁移完成,可通过“查看详情”查看每个对象的迁移进度。增量迁移中,“进度明细”将不再显示,您可以使用“迁移对比”页签查看一致性情况。 说明 目前仅MySQL到MySQL迁移的白名单用户该支持查看迁移明细,需要提交工单申请才能使用。 在任务未结束前,不能修改源库和目标库的所有用户、密码和用户权限等。 全量、增量完成不代表任务结束,如果存在触发器和事件将会进行迁移。 前提条件 已登录数据库复制服务控制台。 已启动迁移任务。 操作步骤 1、在“实时迁移管理”界面,选中指定迁移任务,单击任务名称,进入“基本信息”页面。 2、单击“迁移进度”页签,查看迁移进度。 查看结构、数据、索引的迁移的百分比进度。 “全量迁移”模式:当全量迁移完成时,显示全量迁移各项指标完成进度100%。 “全量+增量”迁移模式:全量迁移完成后,开始进行增量迁移可,在“迁移进度”页签下,查看增量迁移同步时延。 图 迁移进度总览 增量迁移时延也可在“实时迁移管理”界面查看,当增量时延超过用户设置或系统默认的时延阈值时,任务管理界面增量时延显示为红色。 说明 时延 源库当前系统时间 成功同步到目标库的最新一个事务在源库的提交成功时间。 一个事务同步的完整过程如下: 源端数据库的抽取; 经过网络的传输; 由DRS进行日志解析; 最终在目标数据库上的执行完成。 这样完成了事务从源到目标的同步,时延为该事务最后在目标数据库上执行完成时的源库当前系统时间(currenttime)与该事务在源库的提交成功时间(committedtime)的时间差,时延为0代表源和目标瞬时一致,无新的事务需要同步。 注意 长时间未提交事务和频繁DDL操作均可以造成高时延。 查看迁移对象的进度。在“进度明细”下,单击目标迁移对象“详细信息”列的“查看详情”,查看对象的迁移进度,进入增量迁移后,该数据将不再显示,您可以使用“迁移对比”页签,进行一致性对比。 图 迁移进度明细 查看读写数据性能。单击“监控图表”查看读写数据性能,该图表展示了实时读取源库和写入目标库数据的速率,其单位为MB/s。 图 性能监控
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤二:查询迁移进度
      • 创建计划
        本节为您介绍云迁移服务CMS迁移计划创建。 云迁移服务CMS平台提供2种方式创建迁移计划,其一在迁移组创建完成后提供创建迁移计划,详细操作步骤详见资源规划中迁移计划的创建。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        资源规划
        迁移组
        创建计划
      • 支持的数据库
        本页为您介绍天翼云数据传输服务DTS支持的数据库。 数据传输服务支持多种数据源之间的数据迁移和同步,不同数据库的支持情况如下所示。 数据迁移 源库类型及版本 目标库类型及版本 迁移类型 备注 RDS for MySQL、自建MySQL 5.6部分版本/5.7/8.0 RDS for MySQL 5.7/8.0 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持分区表。 RDS for MySQL、自建MySQL 5.6部分版本/5.7/8.0 RDS for PostgreSQL 9.6/10/11/12/13/14/15/16 结构迁移 全量迁移 增量迁移 整库迁移 仅支持表同步。 增量同步表必须有主键。 整库迁移不支持库表名映射。 RDS for MySQL、自建MySQL 5.6部分版本/5.7/8.0 云数据库ClickHouse 22.8.9.24 结构迁移 全量迁移 增量迁移 整库迁移 仅支持表同步。 增量同步表必须有主键。 若源库为空库(该库下未创建任何表),不支持作为待迁移对象。 RDS for PostgreSQL、自建PostgreSQL 9.6/10/11/12/13/14/15/16 RDS for PostgreSQL 9.6/10/11/12/13/14/15/16 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持分区表。 增量迁移表必须有主键。 整库迁移不支持库表名映射。 RDS for PostgreSQL 自建PostgreSQL 9.6/10/11/12/13/14/15/16 RDS MySQL5.7/8.0 结构迁移 全量迁移 增量迁移 整库迁移 支持表、部分索引、约束、comment迁移。 不支持pgtoast,pgtemp1,pgtoasttemp1,pgcatalog,informationschem等系统模式的迁移。 每次至多同步一个库(database),同步多个库需要创建多个DTS任务。 DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(副本集) 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持集合级(指定集合对象)、库级(整库迁移)迁移。 支持索引的结构迁移。 库、集合支持做名称映射。 不支持迁移admin和local库中的数据。 数据迁移仅针对数据源中的用户数据库,而系统库confilg、local、admin会被自动过滤。 DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(分片集群) 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持集合级(指定集合对象)、库级(整库迁移)迁移。 支持索引的结构迁移。 库、集合支持做名称映射。 不支持迁移admin和local库中的数据。 数据迁移仅针对数据源中的用户数据库,而系统库confilg、local、admin会被自动过滤。 DDS 3.4/4.0(分片集群) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(分片集群) DDS 3.4/4.0(分片集群) 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持集合级(指定集合对象)、库级(整库迁移)迁移。 支持索引的结构迁移。 库、集合支持做名称映射。 不支持迁移admin和local库中的数据。 数据迁移仅针对数据源中的用户数据库,而系统库confilg、local、admin会被自动过滤。 RDS for SQL Server 、自建SQL Server 2016 标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 RDS for SQL Server 2016 标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持数据库、模式、分区表、索引、约束(外键、唯一、排他)、视图、存储过程、函数、触发器的迁移。 每次至多迁移一个库(DATABASE),迁移多个库需要创建多个DTS任务。 分区表需要在迁移前提前到目标库建立存储目录以及文件,否则仅支持primary分区。 不支持系统模式、临时表、用户自定义列的迁移。 暂不支持名称映射。 注意 目前DTS的DDS/MongoDB迁移链路暂不支持分片集群到副本集的迁移。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        支持的数据库
      • 介绍
        本节简要介绍OOS数据迁移工具。 OOS数据迁移工具是一款将数据迁移至OOS的工具。您可以将迁移工具部署在本地服务器或云主机上,将其它云存储(阿里云、腾讯云、华为云、AmazaonS3)的数据迁移到OOS、本地数据迁移到OOS、或者进行OOS各资源池间数据迁移。 OOS数据迁移工具具有以下特点: 支持断点续传。迁移过程中,如果出现中断,重新启动工具后,可以继续执行迁移工作。已经迁移完成的部分数据,根据isSkipExist参数设置进行上传或跳过。 支持流量控制。迁移过程中,可以动态调整从源端获取数据的速率。 支持迁移指定前缀的文件。 支持文件并行下载和上传。 支持根据迁移工具日志(迁移成功日志、迁移失败日志、迁移忽略日志)进行文件迁移。
        来自:
        帮助文档
        对象存储(经典版)I型
        常用工具
        OOS数据迁移工具
        介绍
      • 自定义引导操作
        本章节主要介绍翼MapReduce服务的自定义引导特性。 特性简介 翼MR提供标准的云上弹性大数据集群,目前可安装部署包括hadoop、spark等9种大数据组件。当前标准的云上大数据集群不能满足所有用户需求,例如如下几种场景: 通用的操作系统配置不能满足实际数据处理需求,例如需调大系统最大连接数。 需要安装自身业务所需的软件工具或运行环境,例如须安装gradle、业务需要依赖R语言包。 根据自身业务对大数据组件包做修改,例如对hadoop或spark安装包做修改。 需要安装其他翼MR还未支持的大数据组件。 对于上述定制化的场景,可以选择登录到每个节点上手动操作,之后每扩容一个新节点,再执行一次同样的操作,操作相对繁琐,也容易出错。同时手动执行记录不便追溯,不能实现“按需创建、创建成功后即处理数据”的目标。 因此,翼MR提供了自定义引导操作,在启动集群组件前(或后)可以在指定的节点上执行脚本。用户可以通过引导操作来完成安装MRS还没支持的第三方软件,修改集群运行环境等自定义操作。如果集群扩容,选择执行引导操作,则引导操作也会以相同方式在新增节点上执行。翼MR会使用root用户执行您指定的脚本,脚本内部您可以通过su xxx命令切换用户。 客户价值 翼MR提供了自定义引导操作,用户可以以此为入口,灵活、便捷地配置自己的专属集群,自定义安装软件。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        功能特性
        自定义引导操作
      • 天翼云不同资源池迁移
        本节主要介绍天翼云不同资源池迁移 场景介绍 当需要把不同账号下的主机资源整合到一个天翼云账号下时,可以采用主机迁移服务实现ECS实例间的快速迁移。RDA主机迁移服务支持同一区域或者不同区域的源端到目的端的迁移。本章节主要介绍天翼云ECS实例间的迁移场景和操作步骤。 测试资源准备 开通相关资源,获取迁移目的端所在账号的AK/SK。 RDA工具安装和配置 参考用户指南完成RDA工具的安装和配置。 待迁移主机添加配置 在RDA控制台完成源端主机资源添加。 数据迁移 配置目的端,推送agent并创建启动迁移任务。在线迁移,增量同步。 割接校验 停止源端应用并进行最后一次增量迁移,完成后进行业务割接校验。 注意 如果源端和目的端在天翼云的同一个VPC里面,“迁移网络类型”可以选择专线或VPN,此时在迁移时不需要通过弹性IP传输数据,只需要源端有弹性IP即可。 源端和目的端处于同一账号、同一region、不同VPC下时,需要创建同一帐户下的对等连接,然后“迁移网络类型”可以选择专线或VPN。 源端和目的端处于不同账号、同一region、不同VPC下时,需要创建不同帐户下的对等连接,然后“迁移网络类型”可以选择专线或VPN。
        来自:
        帮助文档
        云迁移工具RDA
        最佳实践
        天翼云不同资源池迁移
      • 翼建站是什么
        翼建站介绍 “翼建站”是基于天翼云主机,为企事业单位独立部署网站应用的软件。
        来自:
        帮助文档
        翼建站
        产品介绍
        翼建站是什么
      • 天翼云实例间迁移
        本文主要介绍天翼云ECS实例间的迁移场景和操作步骤。 简介 当需要把不同天翼云账号下的主机资源整合到一个天翼云账号下时,可以采用主机迁移服务实现ECS实例间的快速迁移。主机迁移服务支持同一区域或者不同区域的源端到目的端的迁移。 操作步骤 1. 获取目的端服务器所在账号的AK/SK。 1. 如果您需要直接使用账号来进行主机迁移,具体步骤请参见获取AK/SK(账号)。 2. 如果您在此账号中创建了IAM用户,授予此IAM用户对应的权限后使用此IAM用户创建AK/SK,具体步骤请参见获取AK/SK(IAM用户)。 2. 在源端服务器上安装迁移Agent,具体步骤请参见在源端上安装迁移Agent。 3. 安装完成后,双击SMSAgent,打开迁移Agent,在迁移Agent中填写1中获取的AK/SK,并启动迁移Agent。 说明 迁移Agent启动成功后会自动收集源端服务器信息并发送给主机迁移服务,主机迁移服务会自动校验源端服务器信息合法性以及是否可迁移。 4. 迁移Agent启动成功后,使用目的端服务器所在的账号,登录主机迁移管理控制台,在“迁移服务器”页面的服务器列表中,查看源端服务器信息。 5. 创建并启动迁移任务,具体步骤请参见设置迁移目的端,开始服务器复制并启动目的端。如果源端和目的端在天翼云的同一个VPC里面,“网络类型”可以私网,迁移时会使用目的端的私有IP建立数据连接,目的端不需要配置弹性IP。迁移完成后目的端服务器的登录方式与源端服务器的登录方式保持一致。 说明 源端和目的端处于同一账号、同一region、不同VPC下时,需要创建同一帐户下的对等连接,然后“迁移网络类型”可以选择私网。 源端和目的端处于不同账号、同一region、不同VPC下时,需要创建不同帐户下的对等连接,然后“迁移网络类型”可以选择私网。 (可选)启动目的端后,如果您的源端服务器有增量数据,您可以使用同步功能,同步源端增量数据。单击操作列的“同步”,单击“是”,开始进行增量数据同步。
        来自:
      • 迁移类
        迁移中升级带宽后,迁移使用的是升级前的带宽还是升级后的带宽? 升级带宽后,迁移使用的实际带宽取决于下面最小的带宽。升级带宽后,需要等待510分钟,才可生效,请耐心等待。 源端服务器升级后的带宽。 目的端服务器入云带宽。 SMS控制台设置的网速限制。 迁移速度由源端带宽决定还是目的端带宽决定? 迁移速度取决于源端的出口带宽和目的端的入云带宽。取两者中较小值进行迁移。 如何判断迁移任务是不是卡住? 迁移任务如果长时间不动,可能是以下三种情况,需要查看源端Agent日志确定。 情况一:迁移任务处于“持续同步”阶段。 “持续同步”是主机迁移服务新增的功能,会自动同步源端数据。在配置目的端时,“是否持续同步”选择“是”,全量复制完成后会自动进入“持续同步”阶段。 迁移任务处于“持续同步”阶段的时候,迁移并没有完成,需要手动启动目的端,因此,在未手动启动目的端前,迁移任务会一直处于“持续同步”阶段。启动目的端完成后,才算一次完整的迁移。 情况二:数据迁移中。 数据迁移进行全量复制时,长时间处于某一进度,可能是由于迁移数据量大,迁移速率慢,导致长时间内进度无明显变化,需要查看日志进行确认。若迁移速率不为0,已迁移数据量持续增加,则表明迁移正常。 情况三:启动目的端卡住。 1、启动目的端后任务进度条长时间为0,可能是在执行最后一次同步任务。启动目的端时会进行一次数据同步,期间进度条无变化,数据同步时间长短由源端数据量决定,如果数据量过大,会导致数据比对时间长,该现象为正常现象。若要确定是否在进行数据同步,可查看smsInfo.log最新日志,若启动目的端之后未出现error级别日志,则表明任务正常。 2、启动目的端后任务进度条有进度但长时间无变化,可尝试暂停任务,再次启动任务,等待一段时间(10分钟左右)再次查看是否发生变化。
        来自:
        帮助文档
        云迁移工具RDA
        常见问题
        迁移类
      • 查看服务器详情
        本章介绍如何查看服务器详情。 操作场景 安装并启动Agent后,迁移Agent会自动收集源端服务器信息并发送给主机迁移服务默认迁移任务下。收集的所有信息仅用于数据迁移,不会用做其他用途。具体收集源端哪些信息可查看主机迁移服务会收集源端的哪些信息?。您可以随时登录管理控制台查看服务器信息,包括源端服务器详情、目的端配置信息、迁移状态以及错误信息提示等。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“迁移服务器”,进入迁移服务器列表页面。 3. 单击要查看的服务器名称,进入服务器概览页面。 4. 在服务器概览页面,您可以查看源端服务器信息。 1. 在“基本信息”页签,可以查看迁移配置、目的端配置以及当前迁移任务进展。 2. 在“任务跟踪”页签,可以查看具体迁移状态和当前迁移进度。 3. 在“源端检查项”页签,可以查看迁移检查项结果以及失败原因。 4. 在“磁盘”页签,可以查看源端磁盘分区情况。 5. 在“网卡”页签,可以查看源端网卡信息。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        迁移服务器管理
        查看服务器详情
      • 产品定义
        本章节主要介绍翼MapReduce服务的产品定义。 翼MapReduce服务(MRS),是一个在云上部署和管理Hadoop系统的服务,一键即可部署Hadoop集群。翼MR提供租户完全可控的一站式企业级大数据集群云服务,完全兼容开源接口,结合云计算、存储优势及大数据行业经验,为客户提供高性能、低成本、灵活易用的全栈大数据平台,轻松运行Hadoop、Spark、HBase、Kafka、Storm等大数据组件,并具备在后续根据业务需要进行定制开发的能力,帮助企业快速构建海量数据信息处理系统,并通过对海量信息数据实时与非实时的分析挖掘,发现全新价值点和企业商机。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        产品定义
      • 数据迁移工具使用流程
        本节为您介绍云迁移服务CMS中数据迁移服务使用流程。 使用数据迁移工具,您需在数据迁移工具控制台进行操作。将数据源的相关信息填写到数据迁移工具数据源管理功能模块中;通过数据迁移工具控制台进行后续的任务配置等操作。 数据迁移服务使用流程总览如下图所示: 迁移任务需要数据迁移工具平台与数据源之间网络打通,具体请见如下组网视图:
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        数据迁移服务模块
        数据迁移工具使用流程
      • 考虑分阶段迁移策略
        本节为您介绍云迁移服务分阶段迁移策略相关内容。 分阶段迁移策略是一种将系统、应用程序或数据分成多个阶段进行迁移的策略。它可以帮助组织、企业或个人逐步迁移到新的环境,以降低风险、减少中断,并提供更好的控制和可管理性。通过采用分阶段迁移策略,可以将迁移过程分解为可控制、可管理和可验证的小步骤,降低了风险,并提供了更好的灵活性。这种策略允许组织逐步迁移,同时保持业务连续性,最终实现平稳的迁移过程。
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        安全
        考虑分阶段迁移策略
      • 迁移方案总览
        本节介绍了迁移方案总览的相关内容。 云数据库RDS for SQL Server提供了多种数据迁移方案,可满足从RDS for SQL Server、本地SQL Server数据库、其他云SQL Server迁移到云数据库RDS for SQL Server。 常用的数据迁移工具有:DRS、DAS。推荐使用DRS,DRS可以快速解决多场景下,数据库之间的数据流通问题,操作便捷、简单,仅需分钟级就能搭建完成迁移任务。通过服务化迁移,免去了传统的DBA人力成本和硬件成本,帮助您降低数据传输的成本。 DRS提供备份迁移和实时同步功能: 备份迁移:通过将源数据库的数据导出成备份文件,并上传至对象存储服务,然后恢复到目标数据库。备份迁移可以帮助您在云服务不触碰源数据库的情况下,实现数据迁移。 实时同步:实时同步是指在不同的系统之间,将数据通过同步技术从一个数据源拷贝到其他数据库,并保持一致,实现关键业务的数据实时流动。实时同步不同于迁移,迁移是以整体数据库搬迁为目的,而实时同步是维持不同业务之间的数据持续性流动。 迁移方案总览 表 SQL Server迁移方案 源数据库类型 数据量 一次性或持续 应用程序停机时间 迁移方式 文档链接 RDS for SQL Server 中 一次性 一段时间 使用DAS导出数据,再导入到RDS for SQL Server数据库。 使用DAS的导出和导入功能迁移RDS for SQL Server数据 RDS for SQL Server 任何 一次性或持续 最低 使用DRS将源库数据备份迁移到RDS for SQL Server数据库。 将RDS for SQL Server备份迁移到RDS for SQL Server 其他云上SQL Server数据库 任何 一次性或持续 最低 使用DRS将其他云上SQL Server备份迁移到RDS for SQL Server数据库。 其他云SQL Server备份迁移到RDS for SQL Server
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        数据库迁移
        迁移方案总览
      • CMS-SMS迁移环境准备
        迁移源端云主机下载、安装并启动迁移agent 1. 打开“CMSSMS”控制台,点击“迁移agent”,浏览迁移前检查项,并认真核对。 2. 下载迁移agent程序。 服务器迁移服务支持Linux和Windows两种操作系统的同构迁移。根据云主机的操作系统和处理器架构选择对应的迁移agent安装程序,复制对应的下载指令并在源机上运行。 本次实践选择Linux操作系统X86版本的迁移agent安装程序。 执行指令,下载agent安装程序: sudo wget 3. 安装迁移agent。 回到天翼云“迁移agent”界面,复制安装指令: 在迁移源机上执行安装指令: agent:sudo chmod +x moveCloudx.x.xx8664linux.run && sudo ./moveCloudx.x.xx8664linux.run 4. 安装过程输入AK和SK。 回到天翼云“迁移agent”界面,可复制AK和SK: 在迁移源机上输入对应的AK和SK: 5. 启动迁移agent程序。 在迁移源机启动迁移agent程序: movecloud start
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        服务器迁移服务模块
        百G级Oracle服务器迁移最佳实践
        CMS-SMS迁移环境准备
      • 服务详情概述
        本章节主要介绍翼MapReduce的服务详情操作。 总览 登录FusionInsight Manager以后,选择“集群 > 待操作集群的名称 > 服务”,在服务列表单击指定的服务名称打开服务详情页面,包含“概览”、“实例”、“实例组”和“配置”等页面,以及功能区。部分服务还支持显示自定义的管理工具页面,具体支持列表如下表所示。 自定义管理工具名称一览表 工具名称 对应服务 说明 Flume配置工具 Flume 用于为Flume的服务端和客户端配置采集参数。 Flume客户端管理工具 Flume 查看Flume客户端监控信息。 Kafka Topic监控工具 Kafka 用于为Kafka的Topic提供监控与管理。 其中“概览”为默认页,包含基本信息、角色列表、依赖关系表和监控图表等,右上角可对服务进行管理,基本管理如启动、停止、滚动重启、同步配置请参考上表,其他服务管理操作如下表所示: 服务管理操作 操作入口 说明 “更多 > 健康检查” 为当前服务进行健康检查,健康检查可以包含三方面检查项:各检查对象的“健康状态”、相关的告警和自定义的监控指标,检查结果并不能等同于界面上显示的“运行状态”。健康检查的结果可直接在检查列表左上角单击“导出报告”,选择导出结果。如果发现问题,可以单击“查看帮助”。 “更多 > 下载客户端” 为用户下载默认的仅包含具体服务的客户端,通过客户端执行管理操作、运行业务或进行二次开发,具体可参考下载客户端。 “更多 > 修改服务名称” 修改当前服务名称。 “更多 > 执行角色名称倒换” 具体请参考执行角色实例主备倒换。 “更多 > 进入维护模式/退出维护模式” 配置服务进入/退出维护模式。 “配置 > 导入/导出” 在迁移服务到新集群场景或者重新部署相同服务的场景下,为具体服务的所有配置数据做导入或者导出操作,实现配置结果的快速复制。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        其他服务管理操作
        服务详情概述
      • 恢复HDFS业务数据
        本章主要介绍翼MapReduce的恢复HDFS业务数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对HDFS进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对HDFS进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复HDFS任务。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的HDFS数据。 对于Yarn任务运行时使用的目录(例如“/tmp/logs”、“/tmp/archived”、“/tmp/hadoopyarn/staging”),不能进行HDFS恢复操作,否则进行恢复的Distcp任务会由于文件丢失而导致恢复失败。 对系统的影响 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动HDFS的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查HDFS备份文件保存路径。 停止HDFS的上层应用。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HDFS业务数据
      • 恢复HBase元数据
        本章介绍翼MapReduce的恢复HBase元数据功能。 操作场景 为了确保HBase元数据(主要包括tableinfo文件和HFile)安全,防止因HBase的系统表目录或者文件损坏导致HBase服务不可用,或者系统管理员需要对HBase系统表进行重大操作(如升级或迁移等)时,需要对HBase元数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建恢复HBase任务。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的HBase数据。 建议一个恢复任务只恢复一个组件的元数据,避免因停止某个服务或实例影响其他组件的数据恢复。同时恢复多个组件数据,可能导致数据恢复失败。 HBase元数据不能与NameNode元数据同时恢复,会导致数据恢复失败。 对系统的影响 元数据恢复前,需要停止HBase服务,在这期间所有上层应用都会受到影响,无法正常工作。 元数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 元数据恢复后,需要重新启动HBase的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 检查HBase元数据备份文件保存路径。 恢复HBase元数据需要先停止HBase服务。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HBase元数据
      • 恢复HBase业务数据
        本章主要介绍翼MapReduce的恢复HBase业务数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对HBase进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对HBase业务数据进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复HBase任务并恢复数据。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的HBase数据。 对系统的影响 恢复过程的数据还原阶段,系统会把待恢复的HBase表禁用,此时无法访问该表。还原阶段可能需要几分钟时间,此时HBase的上层应用无法正常工作。 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动HBase的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查HBase备份文件保存路径。 停止HBase的上层应用。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HBase业务数据
      • ClickHouse数据迁移概述
        本页面总结并介绍了多种解决方案来迁移和同步数据。 云数据库ClickHouse提供了多种解决方案来迁移和同步数据,以满足不同业务场景下对数据库数据迁移和同步的需求。这些方案可以帮助用户高效、可靠地将数据从一个环境迁移到另一个环境,并确保数据的一致性和完整性。无论是从本地数据库迁移到云数据库ClickHouse,还是从其他数据源进行数据同步,都可以利用这些方案来简化数据迁移和同步的过程。 从MySQL迁移数据 从本地存储迁移数据 从Flink迁移数据 从ClickHouse 自建集群迁移数据 从Kafka迁移数据
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        ClickHouse数据迁移概述
      • 将MySQL分库分表迁移到DRDS
        操作步骤 本章节将介绍在公网网络场景下,通过数据复制服务配置MySQL分库分表到DRDS实例迁移的任务流程。 步骤 1 在“实时迁移管理”页面,单击“创建迁移任务”,进入创建迁移任务页面。 步骤 2 在“迁移实例”页面,填选任务名称、描述、迁移实例信息,单击“下一步”。 表 任务和描述 参数 描述 :: 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 表 迁移实例信息 参数 描述 :: 数据流动方向 选择入云。 入云指目标端数据库为本云数据库。 源数据库引擎 选择MySQL分库分表。 目标数据库引擎 选择DRDS。 网络类型 此处以公网网络为示例。默认为公网网络类型,可按照需求选择VPC网络、公网网络和VPN、专心网络。 VPC网络:适合云上数据库之间的迁移。 公网网络:适合通过公网网络把其他云下或其他平台的数据库迁移到目标数据库,该类型要求目标数据库绑定弹性公网IP(EIP)。 VPN网络:适合通过VPN网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 专线网络:适合通过专线网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 目标数据库实例 用户所创建的目标数据库实例。 迁移实例所在子网 选择迁移实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。 默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保迁移实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 迁移模式 全量:该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程、触发器等。 说明 如果用户只进行全量迁移时,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量:该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程完成目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将源端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 源端数据库实例个数 源端数据库实例个数默认最小值为2,最大值为16,你需要根据源端实际的分片数据库个数设置该值大小。 标签 可选配置,对迁移任务的标识。使用标签可方便管理您的迁移任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 步骤 3 在“源库及目标库”页面,迁移实例创建成功后,填选源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表 源库信息 参数 描述 :: 中间件IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 中间件用户名 源数据库的用户名。 中间件密码 源数据库的用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 分片数据库 根据源库实际的分片数据库,填写对应的数据库信息。 说明 源数据库的IP地址或域名、数据库用户名和密码,会被系统加密暂存,直至删除该迁移任务后自动清除。 表 目标库信息 参数 描述 :: 数据库实例名称 默认为创建迁移任务时选择的数据库实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 数据库用户名和密码将被系统加密暂存,直至该任务删除后清除。 说明 目标数据库的用户名和密码,会被系统加密暂存,直至删除该迁移任务后自动清除。 步骤 4 在“迁移设置”页面,设置迁移对象,单击“下一步”。 表 迁移对象 参数 描述 :: 迁移对象 对象迁移到目标数据库实例后,对象名将会保持与源数据库实例对象名一致且无法修改。 说明 目标库未创建的结构默认不迁移。 步骤 5 在“预检查”页面,进行迁移任务预校验,校验是否可进行迁移。 查看检查结果,如有失败的检查项,需要修复失败项后,单击“重新校验”按钮重新进行迁移任务预校验。 图 预检查 预检查完成后,且预检查通过率为100%时,单击“下一步”。 说明 所有检查项结果均成功时,若存在告警,需要阅读并确认告警详情后才可以继续执行下一步操作。 步骤 6 在“任务确认”页面,设置迁移任务的启动时间,并确认迁移任务信息无误后,单击“启动任务”,提交迁移任务。 表 任务启动设置 参数 描述 :: 启动时间 迁移任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”,优选“稍后启动”。 说明 预计迁移任务启动后,会对源数据库和目标数据库的性能产生影响,建议您将任务启动时间设定在业务低峰期,同时预留23天校对数据。 步骤 7 迁移任务提交后,您可在“实时迁移管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        入云
        将MySQL分库分表迁移到DRDS
      • 数据迁移工具适用场景
        本文介绍数据迁移工具适用场景。 媒体存储为客户提供在线迁移服务,客户可以通过在线迁移服务实现以下数据迁移场景: 将同个账号的媒体存储的某个Bucket数据迁移至另一个Bucket。 跨不同的天翼云账号迁移媒体存储间的数据。 将第三方数据,如阿里云、AWS等数据迁移到媒体存储。 目前在线迁移服务为内测能力,如有需要,可联系您的专属客户经理开通试用。
        来自:
        帮助文档
        媒体存储
        常见问题
        数据迁移
        数据迁移工具适用场景
      • 定时任务
        本节为您介绍配置定时任务的相关操作及事项。 操作场景 安装Agent并上报源端主机至平台后,可为其配置定时任务。通过该功能,您可预设迁移、割接、修复等任务时间,实现自动化执行,简化操作流程,提升云迁移效率。 操作步骤 定时迁移 1. 将源端主机上报至平台并完成与目标机的绑定(具体操作步骤可参考用户指南服务器迁移服务模块绑定目标机)。一旦目标机成功绑定,您将在主机管理页面上看到该主机状态变为“等待迁移”。此时,点击页面列表上方的“定时任务”按钮,即可进入定时任务列表页面。 2. 点击“新增定时任务”按钮,进入定时任务配置页面。选择定时任务类型为“定时迁移”,勾选待迁移主机,并设置计划执行时间、是否启用增量、压缩率等参数。 3. 完成定时任务配置后,点击“提交”按钮。随后,在定时任务列表页面,您可以查看到已设置的定时任务的详情,包括任务类型、任务状态、计划实行时间、实际执行时间、完成时间等关键信息。此时,任务的状态为“未执行”。 4. 在定时任务未开始时,可以通过操作栏的修改按钮更改定时任务的配置。 5. 当预设的执行时间到达时,您可以在定时任务列表中观察到任务状态已更新为“执行中”,同时在主机管理页面也能查看到相应任务的迁移状态显示为“迁移中”。 6. 对于迁移状态为“迁移中”的主机,可以设置“定时暂停迁移”任务。在新增定时任务页面,选择定时任务类型为“定时暂停迁移”,设置计划执行时间。 点击“提交”,即可在定时任务列表页面查看到已成功配置的定时任务。 7. “定时暂停迁移”任务执行完成后,可以在主机管理页面查看到该迁移任务的状态更新为“任务暂停”。 8. 对于迁移状态为“任务暂停”的主机,可以设置“定时继续迁移”任务。在新增定时任务页面,选择定时任务类型为“定时继续迁移”,设置计划执行时间。 点击“提交”,即可在定时任务列表页面查看到已成功配置的定时任务。 9. “定时继续迁移”任务执行完成后,可以在主机管理页面查看到该迁移任务的状态更新为“迁移中”。 10. “定时任务执行完毕后,在定时任务列表页面,您将看到该任务的状态更新为“执行成功”。 定时停止增量 1. 对于迁移状态为“增量中”的主机,可以设置“定时停止增量”任务。点击页面列表上方的“定时任务”按钮,进入定时任务列表页面。 2. 点击“新增定时任务”按钮,进入定时任务配置页面。选择定时任务类型为“定时停止增量”,勾选待停止增量主机,并设置计划执行时间。 点击“提交”,即可在定时任务列表页面查看到已成功配置的定时任务。 3. 当到达预设的执行时间时,您可以在定时任务列表中查看到该任务的状态已更新为“执行成功”,并标注结果为“成功”。 此时,在主机管理页面可以看到对应主机的迁移状态为“增量完成”。 定时引导修复 1. 对于迁移状态为“修复完成”的主机,可以设置“定时引导修复”任务。点击页面列表上方的“定时任务”按钮,进入定时任务列表页面。 2. 点击“新增定时任务”按钮,进入定时任务配置页面。选择定时任务类型为“定时引导修复”,勾选待引导修复主机,并设置计划执行时间、源机硬盘、目标机硬盘等参数。 点击“提交”,即可在定时任务列表页面查看到已成功配置的定时任务。 3. 当到达预设的执行时间时,您可以在定时任务列表中查看到该任务的状态已更新为“执行中”,并标注结果为“开始引导修复,请等待执行结果”。 此时,在主机管理页面也可以看到对应主机的迁移状态为“目标机恢复中”。 4. 定时任务执行完毕后,在定时任务列表页面,您将看到该任务的状态更新为“执行成功”,并标注结果为“成功”。 此时,在主机管理页面可以看到对应主机的迁移状态为“目标机已恢复”。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        服务器迁移服务模块
        定时任务
      • 迁移方案概览
        本页介绍了关于文档数据库服务迁移方案概览。 文档数据库服务的数据迁移通常涉及从一个实例(源)向另一个实例(目标)复制或迁移数据。以下是一些常用的文档数据库服务数据迁移方案: 备份和还原:使用mongodump工具从源数据库创建备份,然后使用mongorestore工具将备份数据恢复到目标数据库。这种方式适用于小规模的数据迁移,并且不会中断生产环境。但对于大规模或实时生产系统,备份和还原可能会造成数据迁移时间较长和停机时间较长的问题。 基于副本集的数据迁移:如果你使用文档数据库服务的副本集,可以通过添加新的目标节点(Secondary节点)来实现数据迁移。在副本集中,数据会自动复制到Secondary节点上,这样你可以逐步将数据迁移到新的目标节点上。一旦所有数据都复制到新节点,可以将其升级为Primary节点,完成数据迁移。 基于Sharding的数据迁移:如果你使用文档数据库服务的分片集群(Sharding),可以通过添加新的Shard来实现数据迁移。在分片集群中,可以先添加一个空的Shard,然后逐步将数据迁移到新的Shard上。一旦所有数据都迁移到新Shard上,可以逐步移除原来的Shard,完成数据迁移。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        迁移方案概览
      • 查看映射关系
        本页介绍如何查看已进行对象映射配置的数据迁移实例的映射关系。 操作步骤 1. 在【数据迁移】实例列表页面,选择已配置对象映射关系的数据迁移实例,点击“实例ID”进入【实例管理】页面,点击右上角“实例详情”。 2. 进入【迁移信息】页面,点击右上角“查看迁移对象”按钮。 3. 在弹出的“查看迁移对象”页面,该页面会展示该实例在首次配置阶段配置的迁移对象及映射关系。 4. 如果该数据迁移实例的配置信息后续有被编辑,要查看实际被迁移的对象,可在【迁移详情】页面查看,具体操作可参考查看迁移详情。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        实例配置和实例编辑
        迁移对象管理
        查看映射关系
      • AI云电脑同步工具
        开启迁移功能选项 在“设置”“扩展功能”中勾选“启用整机迁移功能”和“启用应用迁移功能”。 windows整机迁移 在“整机迁移”页面,选择用户的目标AI云电脑和磁盘迁移配置,系统盘默认勾选,不可取消。点击“开始整机迁移”按钮启动整机迁移。 注意:目标AI云电脑对应磁盘数据会被清除,请备份好数据,谨慎操作。 在“整机迁移”过程中,只可点击“取消迁移”或“暂停迁移”,其它操作全部被禁用。点击“取消迁移”进行取消迁移任务后,才可以进行其它操作。 windows应用迁移 在“应用迁移”页面,在支持迁移的应用列表中,勾选需要迁移的应用。点击“开始迁移”按钮启动应用迁移。 注意:目标AI云电脑已经安装的应用不可勾选。 其中支持迁移的应用可分为三类: 完全支持:迁移应用的安装文件、配置、注册表、插件,迁移后应用的所有功能可正常使用。 部分支持:迁移应用的安装文件、配置、注册表,迁移后应用的主体功能可正常使用,部分扩展功能不可用。 可能支持:仅迁移应用的安装文件、部分注册表,迁移后需要用户确认应用是否可用。 对于“可能支持 ”和“不支持”的应用用户可点击“提交申请”,在后续版本中将优先进行迁移适配。
        来自:
        帮助文档
        天翼云电脑(政企版)
        电脑终端指南(新)
        AI云电脑同步工具
      • AI云电脑同步工具
        4.1 开启迁移功能选项 在“设置”“扩展功能”中勾选“启用整机迁移功能”和“启用应用迁移功能”。 4.2 windows整机迁移 在“整机迁移”页面,选择用户的目标AI云电脑和磁盘迁移配置,系统盘默认勾选,不可取消。点击“开始整机迁移”按钮启动整机迁移。 注意:目标AI云电脑对应磁盘数据会被清除,请备份好数据,谨慎操作。 在“整机迁移”过程中,只可点击“取消迁移”或“暂停迁移”,其它操作全部被禁用。点击“取消迁移”进行取消迁移任务后,才可以进行其它操作。 4.3 windows应用迁移 在“应用迁移”页面,在支持迁移的应用列表中,勾选需要迁移的应用。点击“开始迁移”按钮启动应用迁移。 注意:目标AI云电脑已经安装的应用不可勾选。 其中支持迁移的应用可分为三类: 完全支持:迁移应用的安装文件、配置、注册表、插件,迁移后应用的所有功能可正常使用。 部分支持:迁移应用的安装文件、配置、注册表,迁移后应用的主体功能可正常使用,部分扩展功能不可用。 可能支持:仅迁移应用的安装文件、部分注册表,迁移后需要用户确认应用是否可用。 对于“可能支持 ”和“不支持”的应用用户可点击“提交申请”,在后续版本中将优先进行迁移适配。
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南(新)
        AI云电脑同步工具
      • 查看主机实例列表-实例操作
        本章节主要介绍翼MR Manager的查看主机实例列表的实例操作。 操作场景 对主机上实例,进行启动、停止、重启等批量操作。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“主机”,进入主机列表页面。 5. 单击指定主机的主机IP或主机名称进入到主机详情页面。 6. 单击“实例列表”tab,即可查看该主机上安装的实例服务,勾选想要进行批量运维操作的实例。 7. 点击“操作已选项”按钮,选择相应的运维操作,在提示弹窗中点击确定按钮。单次只支持批量进行同一种运维操作。如图所示: 8. 进入引导式运维操作界面,展示待操作的实例列表,点击下一步运行流水线。如图所示: 9. 进入流水线运行界面,可查看流水线的运行状态,如图所示。运维操作结束后会自动跳出界面,可在运维历史界面查看运维记录信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        主机
        查看主机实例列表-实例操作
      • 1
      • ...
      • 11
      • 12
      • 13
      • 14
      • 15
      • ...
      • 106
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      应用托管

      一站式智算服务平台

      推荐文档

      分布式消息服务的功能

      什么是服务器迁移

      玩转天翼云⑥:Windows主机开启2个远程终端

      创建程序包

      操作手册

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号