云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼迁移_相关内容
      • 创建OBS自建桶备份迁移任务
        本节主要介绍创建OBS自建桶备份迁移任务 支持的源和目标数据库 表 支持的数据库 备份文件版本 目标数据库版本 本地及其他云Microsoft SQL Server数据库备份文件版本: Microsoft SQL Server 2000 Microsoft SQL Server 2005 Microsoft SQL Server 2008 Microsoft SQL Server 2012 Microsoft SQL Server 2014 Microsoft SQL Server 2016 Microsoft SQL Server 2017 RDS for Microsoft SQL Server Microsoft SQL Server 2008 Microsoft SQL Server 2012 Microsoft SQL Server 2014 Microsoft SQL Server 2016 Microsoft SQL Server 2017 前提条件 已登录数据复制服务控制台。 满足备份迁移支持的数据库类型和版本,详情请参见 备份迁移。 使用须知 介绍Microsoft SQL Server数据库备份迁移使用上的限制。 表 使用须知 类型名称 使用和操作限制 数据库权限设置 在创建备份迁移任务前,请确定操作账号具有相应的OBS服务权限和桶权限。 待还原数据库名称要求 待还原数据库名不能重复,且不能为以下名称(不区分大小写): msdb master model tempdb rdsadmin resource OBS自建桶的待还原数据库名称长度为1~256个字节,组成为中文、字母、数字、下划线、中划线。 数据库新名称要求 数据库新名称不能重复,且不能为以下名称(不区分大小写): msdb master model tempdb rdsadmin resource 数据库新名称长度为1~128个字节,组成为字母、数字、下划线、中划线。 本地备份文件限制 备份文件上传OBS的后缀名必须为“.bak”,否则在OBS备份文件列表中无法选中非“.bak”后缀的文件。 备份文件名称长度为:1~100个字符长度。 备份文件名称组成为:字母,数字,下划线,中划线。 备份文件可支持全量备份文件和日志备份文件。 数据库备份文件的来源 OBS自建桶:上传至OBS自建桶目录下的数据库备份文件。 操作须知 OBS桶所在区域必须跟实例所在区域相同。 目标数据库的可用磁盘空间大小至少为待还原数据库总数据量大小的1.5倍。 待还原数据库名称,必须跟备份文件中数据库名称一致(区分大小写)。 不支持高版本的数据库备份文件在低版本实例数据库上进行还原(例如从2017版本>2016版本的还原)。 企业版>标准版>Web版的还原存在一定失败的风险(取决于是否开启高版本的特性)。 迁移过程中,实例显示处于迁移状态,当前正在迁移的目标数据库默认取消高可用状态(如果是覆盖还原),迁移完成后自动恢复高可用状态。 迁移过程中正在还原的数据库请停止写入事务。 当RDS实例异常引发目标数据库发生主备切换时,会导致备份迁移失败,该情况下的迁移任务不可恢复。
        来自:
        帮助文档
        数据库复制
        用户指南
        备份迁移
        创建OBS自建桶备份迁移任务
      • 支持的数据源
        整库迁移支持的数据源类型 整库迁移适用于将本地数据中心或在ECS上自建的数据库,同步到云上的数据库服务或大数据服务中,适用于数据库离线迁移场景,不适用于在线实时迁移。 数据集成支持整库迁移的数据源详见下表 数据源分类 数据源 读取 写入 说明 数据仓库 数据仓库服务(DWS) 支持 支持 数据仓库 FusionInsight LibrA 支持 不支持 Hadoop (仅支持本地存储,不支持存算分离场景,不支持Ranger场景,不支持ZK开启SSL场景) MRS HBase 支持 支持 整库迁移仅支持导出到MRS HBase。 建议使用的版本: 2.1.X 1.3.X Hadoop (仅支持本地存储,不支持存算分离场景,不支持Ranger场景,不支持ZK开启SSL场景) MRS Hive 支持 支持 整库迁移仅支持导出到关系型数据库。 暂不支持2.x版本,建议使用的版本: 1.2.X 3.1.X Hadoop (仅支持本地存储,不支持存算分离场景,不支持Ranger场景,不支持ZK开启SSL场景) FusionInsight HBase 支持 不支持 建议使用的版本: 2.1.X 1.3.X Hadoop (仅支持本地存储,不支持存算分离场景,不支持Ranger场景,不支持ZK开启SSL场景) FusionInsight Hive 支持 不支持 整库迁移仅支持导出到关系型数据库。 暂不支持2.x版本,建议使用的版本: 1.2.X 3.1.X Hadoop (仅支持本地存储,不支持存算分离场景,不支持Ranger场景,不支持ZK开启SSL场景) Apache HBase 支持 不支持 建议使用的版本: 2.1.X 1.3.X Hadoop (仅支持本地存储,不支持存算分离场景,不支持Ranger场景,不支持ZK开启SSL场景) Apache Hive 支持 不支持 整库迁移仅支持导出到关系型数据库。 暂不支持2.x版本,建议使用的版本: 1.2.X 3.1.X 关系数据库 云数据库MySQL 支持 支持 不支持OLTP到OLTP迁移,此场景推荐通过数据复制服务DRS进行迁移。 关系数据库 云数据库PostgreSQL 支持 支持 关系数据库 云数据库SQL Server 支持 支持 关系数据库 MySQL 支持 不支持 关系数据库 PostgreSQL 支持 不支持 关系数据库 Microsoft SQL Server 支持 不支持 关系数据库 Oracle 支持 不支持 关系数据库 SAP HANA 支持 不支持 仅支持2.00.050.00.1592305219版本。 仅支持Generic Edition。 不支持BW/4 FOR HANA。 仅支持英文字母的数据库名、表名与列名,不支持存在空格、符号等特殊字符。 仅支持日期、数字、布尔、字符(除SHORTTEXT) 类型的数据类型,不支持二进制类型等其他数据类型。 迁移时不支持目的端自动建表。 关系数据库 达梦数据库DM 支持 不支持 仅支持导出到DWS、Hive NoSQL 分布式缓存服务(DCS) 不支持 支持 仅支持MRS到DCS迁移。 NoSQL 文档数据库服务(DDS) 支持 支持 仅支持DDS和MRS之间迁移。 NoSQL 表格存储服务(CloudTable) 支持 支持
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        支持的数据源
      • 存储桶常见问题
        如何迁移第三方云厂商数据至对象存储? 要将第三方云厂商的数据迁移至对象存储(简称ZOS),您可以按照以下步骤进行: 1. 登录ZOS管理控制台,在左侧导航栏中选择“对象存储迁移”。 2. 点击“创建迁移任务”,根据选项提示完成参数配置完成迁移任务创建。 3. 创建完成后,可在任务列表中查看迁移进度、时长等信息。 4. 点击任务名称查看任务详情。 更具体详细的步骤信息可参考如何进行对象存储迁移。 从其他云迁移到对象存储,费用如何计算? 从其他云厂商迁移数据到对象存储(简称ZOS)时,主要涉及以下几个方面的费用计算: 源端存储流量费用:在从源端云厂商迁移数据到ZOS的过程中,会产生源端存储的流出流量费用。具体费用请参考源端厂商的定价政策,并根据实际迁移的数据量进行计算。 存储容量费用:一旦数据成功迁移至ZOS,您将开始支付存储容量费用。存储容量费用的计算通常基于您使用的存储容量大小和所选存储类型。 请求费用:访问或操作对象存储中的数据时会产生请求费用,包括读取、写入、复制、删除等操作。请求费用按照请求类型和数量进行计算。 桶内无对象为什么会产生流入流量? 可能原因一:流入流量结算是根据文件上传实时更新的,有可能在一段时间内其他用户向桶中上传文件后又删除了该文件,桶拥有者看到时,虽然桶内无对象,但实际已产生流入流量。 可能原因二:由于某些原因导致上传中断,仅上传成功了部分碎片,并未合并成完整对象,但上传碎片的过程中产生了流量。
        来自:
        帮助文档
        对象存储 ZOS
        常见问题
        存储桶常见问题
      • 资源创建查看
        本节为您介绍云迁移服务CMS资源创建查看相关内容。 1. 云迁移服务CMS平台可以为您查看资源创建信息,您需要在左侧导航栏选择资源规划,点击【资源创建】按钮,进入 [ 资源创建 ] 界面,弹出 [ 迁移计划选择 ] 界面,您可以根据需要选择迁移计划,点击【确定】进入[ 资源创建 ]界面,如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        资源规划
        资源创建
        资源创建查看
      • 迁移数据库
        本章节介绍了如何创建DRS实例,并将本地Oracle上的testinfo数据库迁移到云数据库GaussDB 实例中testdatabaseinfo数据库中。 迁移前检查 在创建任务前,需要针对迁移条件进行手工自检,以确保您的迁移任务更加顺畅。 在迁移前,您需要参考入云使用须知获取迁移相关说明。 创建迁移任务 1. 登录天翼云控制台。 2. 单击管理控制台左上角的,选择区域。选择目标实例所在的区域。 3. 单击左侧的服务列表图标,选择“数据库 > 数据库服务 > 数据复制”。 4. 左侧导航栏选择“实时同步管理”,单击“创建同步任务”。 5. 配置同步实例信息。 a) 选择区域,项目,填写任务名称。 b) 配置迁移任务的类型,选择目标实例和子网等。 c) 单击“开始创建”。 6. 配置源库及目标库信息。 a) 填写源库的IP、端口、用户、密码等信息。 填写完成后,需要单击“测试连接”,测试连接信息是否正确。 b) 填写目标库的账户和密码。 填写完成后,需要单击“测试连接”,测试连接信息是否正确。 c) 单击“下一步”,仔细阅读提示内容后,单击“同意,并继续”。 7. 设置同步。 a) 在源库选择需要迁移的数据库和表。本次实践中选择“ testinfo” 中的 “DATATYPELIST” 表。 b) 选择完成后,可以设置迁移后是否重新命名库名和表名。 c) 本次实践将表名重新命名为“ DATATYPELISTAfter ”。 注意重新命名时不要使用特殊符号,否则会导致迁移后执行SQL语句报错。 d) 确认重命名设置内容,单击“下一步”。 8. 高级设置。 本页面内容仅做确认,无法修改,确认完成后单击“下一步”。 9. 数据加工。 在该页面可以对迁移的表进行加工。包括选择迁移的列,重新命名迁移后的列名,本次实践将“ COL01CHARE ”重新命名为“ newline ”。 a) 选择需要加工的表。 b) 编辑“COL01CHARE”列。 c) 将“COL01CHARE”重新命名为“newline”,单击“确定”。 d) 单击“下一步”。 10. 预检查。 a) 所有配置完成后,进行预检查,确保迁移成功。 b) 对于未通过的项目,根据检查结果中的提示信息修复,修复完成后,单击“重新校验”,直到预检查通过率为100%。 c) 预检查全部通过后,单击“下一步”。 11. 任务确定。 a) 检查所有配置项是否正确。 b) 单击“启动任务”,仔细阅读提示后,勾选“我已阅读启动前须知”。 c) 单击“启动任务”,完成任务创建。 12. 任务创建成功。 任务创建成功后,返回任务列表查看创建的任务状态。
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移数据库
      • 文件增量迁移
        本章节主要介绍文件增量迁移。 CDM支持对文件类数据源进行增量迁移,全量迁移完成之后,第二次运行作业时可以导出全部新增的文件,或者只导出特定的目录/文件。 目前CDM支持以下文件增量迁移方式: 1.增量导出指定目录的文件 −适用场景:源端数据源为文件类型(OBS/HDFS/FTP/SFTP)。这种增量迁移方式,只追加写入文件,不会更新或删除已存在的记录。 −关键配置:文件/路径过滤器+定时执行作业。 −前提条件:源端目录或文件名带有时间字段。 2.增量导出指定时间以后的文件 −适用场景:源端数据源为文件类型(OBS/HDFS/FTP/SFTP)。这里的指定时间,是指文件的修改时间,当文件的修改时间晚于指定的时间,CDM才迁移该文件。 −关键配置:时间过滤+定时执行作业。 −前提条件:无。 文件/路径过滤器 参数位置:在创建表/文件迁移作业时,如果源端数据源为文件类型,那么源端作业参数的高级属性中可以看到“过滤类型”参数,该参数可选择:通配符或正则表达式。 参数原理:“过滤类型”选择“通配符”时,CDM就可以通过用户配置的通配符过滤文件或路径,CDM只迁移满足指定条件的文件或路径。 配置样例: 例如源端文件名带有时间字段“20171015 20:25:26”,这个时刻生成的文件为“/opt/data/file20171015202526.data”,则在创建作业时,参数配置如下: a.过滤类型:选择“通配符”。 b.文件过滤器:配置为“ ${dateformat(yyyyMMdd,1,DAY)} ” (这是CDM支持的日期宏变量格式,详见 时间宏变量使用解析)。 c.配置作业定时自动执行,“重复周期”为1天。 这样每天就可以把昨天生成的文件都导入到目的端目录,实现增量同步。 文件增量迁移场景下,“路径过滤器”的使用方法同“文件过滤器”一样,需要路径名称里带有时间字段,这样可以定期增量同步指定目录下的所有文件。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        增量迁移原理介绍
        文件增量迁移
      • 镜像与迁移(1)
        如何迁移skills 将OpenClaw的Skills迁移至其他云电脑,操作方法如下: Windows 系统迁移步骤 1. 进入路径 C:UsersAdministrator.openclawskills,将该目录下所有文件夹完整复制; 2. 将复制的文件夹导入至目标云电脑,存放至路径 C:UsersAdministrator.openclawskills;若目标路径不存在,可手动创建该目录。 Ubuntu/妙逸系统迁移步骤 1. 进入路径 /home/ctyun/.openclaw/skills,将该目录下所有文件夹完整复制; 2. 将复制的文件夹导入至目标云电脑,存放至路径 /home/ctyun/.openclaw/skills;若目标路径不存在,可手动创建该目录。 注意 上述路径为openclaw默认路径,如用户修改过默认存储路径,以用户修改为准。
        来自:
      • 评估结果查看
        本节为您介绍数据库迁移工具提供评估结果在线查看功能。 数据库迁移工具提供评估结果在线查看功能。用户在启动评估任务后,会自动跳转到评估结果界面。用户也可以通过迁移评估列表,点击“报告名”跳转到评估结果界面。评估结果主要是展示数据库的基本信息(如版本、字符集、磁盘空间推荐)、连接资源信息(如最大连接数)、表信息(表的大小、字段类型、有无主键等)、数据库结构信息(结构名、类型、数量、与目标库存在的差异)、对象关联信息(对象名、对象间依赖关系)、迁移权限检测(源库账号权限检测、解决方法)。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        迁移评估
        评估结果查看
      • 镜像与迁移
        本节介绍云电脑的镜像和迁移操作指南。 如何升级到最新镜像 如何迁移OpenClaw 如何迁移skills Windows 系统迁移步骤 Ubuntu/妙逸系统迁移步骤 如何升级到最新镜像 升级新镜像的方法同重装操作系统一致,参考下方链接中“已有云电脑用户,切换OpenClaw镜像体验” + /share++ 如何迁移OpenClaw 如何把openclaw从一台云电脑迁移到另一台云电脑,龙虾启动不起来了,想重装镜像,客户要备份哪些文件夹,可以保留当前的龙虾的记忆和特点。以云电脑A迁移到云电脑B为例,操作方法如下: 1. 备份云电脑A中,C:UsersAdministrator.openclaw这个文件夹,直接右键文件夹,复制整个; 2. 备份云电脑A中,C:UsersAdministratorclawd 这个文件夹,直接右键文件夹,复制整个; 3. 将复制好的两个文件夹 .opencalw 、 clawd 备份,重装系统后再传入到新的云电脑B; 4. 重装镜像 或者 进入云电脑B 之后,将上述备份的两个文件夹,替换掉这两个路径下的文件夹: C:UsersAdministrator.openclaw C:UsersAdministratorclawd 注意 1. 可以先备份新镜像 或 新云电脑B 的 .openclaw、 clawd这两个文件夹,然后将云电脑A的两个文件夹放到上述两个路径 2. 上述路径为openclaw默认路径,如用户修改过默认存储路径,以用户修改为准。 (5)替换文件夹成功后,在云电脑B重启OpenClaw应用,即可看到云电脑A的使用数据。
        来自:
        帮助文档
        天翼云电脑(公众版)
        OpenClaw云电脑FAQ
        镜像与迁移
      • 命令拷贝
        应用场景 适用于用户的迁移服务器(物理机、弹性云主机)可以访问待迁移数据,且和HPFS网络互通,同时保证可挂载并行文件系统的场景下的迁移操作。 准备工作 1. 创建迁移服务器,如果目标HPFS文件系统是NFS协议,迁移服务器可选择弹性云主机。如果目标HPFS文件系统是HPFSPOSIX协议,迁移服务器需要选择物理机(GPU裸金属)。具体限制请参考操作系统限制。 2. 将HPFS文件系统挂载至物理机或弹性云主机,具体操作请参考挂载文件系统。 操作步骤 迁移命令说明 HPFS数据拷贝是文件系统间数据的迁移,推荐使用数据同步工具rsync(remote synchronize)。 centos环境下rsync安装命令: plaintext yum install y rsync rsync支持本地(类似cp,我们一般选择本地方式)或者远端(类似scp)数据拷贝,可以镜像保存整个目录树和文件系统,支持断点续传,快速安全。 rsync使用说明: plaintext 本地拷贝 rsync [OPTION...] SRC... [DEST] 常用选项: partial 保留那些因故没有完全传输的文件,以是加快随后的再次传输 inplace 将更新的数据直接写入目标文件,避免文件复制 delete 删除那些DST中SRC没有的文件 a, archive 归档模式,表示以递归方式传输文件,并保持所有文件属性,等于rlptgoD v, verbose 详细模式输出 c, checksum 打开校验开关,强制对文件传输进行校验 数据拷贝时间可能很长(用户数据量除以数据拷贝带宽),为防止下线执行命令退出,可以采用后台执行的方式执行rsync命令: plaintext nohup rsync a partial inplace v $srcdir $destdir &;
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        数据迁移
        命令拷贝
      • 修改任务信息
        本节主要介绍修改任务信息 实时迁移任务创建成功后,支持对部分任务信息进行修改,以方便区分和识别迁移任务。 支持可修改的任务信息如下: 任务名称 描述 收件人手机号 收件人邮箱 时延阈值 任务启动时间 前提条件 已登录数据库复制服务控制台。 已成功创建迁移任务。 操作步骤 1、在“实时迁移管理”页面,选择指定的迁移任务,单击任务名称。 2、进入“基本信息”页签,在“任务信息”模块下,选择需要修改的任务信息。 对于任务名称、描述,可以单可以单击 ,进行修改。 单击 ,提交修改。 单击 ,取消修改。 表 实时迁移任务信息 任务信息 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含!<>&'"特殊字符。 对于任务启动时间,当迁移任务为“等待启动”状态时,才可以进行修改。需要在“任务信息”模块下的“计划启动时间”处,单击“修改”,选择指定时间,单击“确定”即可。 3、修改完成后,可在“基本信息”页签下查看修改结果。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        修改任务信息
      • 方案概述
        本文向您介绍使用企业交换机构建IDC和云上的大二层网络的最佳实践概述。 应用场景 某公司希望将云下IDC的部分业务迁移上云,在IDC内,业务主机采用集群部署,组网示意图如下所示。 迁移上云过程中,该公司有以下诉求: 按主机粒度迁移上云,迁移中不能中断业务。 由于IDC内主机访问配置文件中记录的不是域名地址,而是真实的IP地址,迁移上云不改变原有主机IP地址。 图IDC内业务集群架构 方案架构 天翼云支持通过企业交换机(Enterprise Switch,ESW) 构建客户IDC和云上二层网络互通,在二层网络内,实现主机粒度迁移,助力客户IDC迁移上云期间业务不中断,不修改IP地址的诉求。 通过企业交换机迁移IDC的组网示例如下图所示,本示例中将IDC内的VMB在不修改IP的前提下,迁移到云上。迁移过程说明如下: 1. 使用云专线或VPN建立云上与云下IDC隧道子网之间的三层网络通信。因为企业交换机建立二层通信网络时,依赖隧道子网之间的三层网络。 2. 创建企业交换机、建立二层连接、配置VXLAN交换机,建立云上与云下IDC的二层网络通信。 3. 将主机VMB(10.0.1.8)迁移到云上ECSB(10.0.1.21),检查好VMB和ECSB的网络通信后,待业务低谷时期关闭IDC内的VMB。 短暂关闭VMB时,业务主要由IDC内的VMA(10.0.1.131)承载,因此不会中断业务。 注意 此处为了验证VMB和ECSB之前的正常通信,刚迁移上云的ECSB和VMB的IP地址不能一样,否则无法正常通信。 4. 关闭IDC内的VMB后,将云上的ECSB地址由10.0.1.21改为10.0.1.8,此时业务流量会通过企业交换机转发到云上的ECSB处理,确保迁移后不改变主机IP地址。 同时,云上的ECSB和IDC内的VMA也可以自由互访,就像还位于同一个子网中。
        来自:
        帮助文档
        企业交换机
        最佳实践
        使用企业交换机构建IDC和云上的大二层网络
        方案概述
      • 创建迁移任务
        本节为您介绍数据迁移创建迁移任务相关操作。 1. 在数据迁移工具首页,您可以在左侧导航栏点击【任务管理】,进入[任务管理]界面,如图所示。 2. 点击【添加任务】按钮,进入[任务配置]界面,依次填写配置信息,如图所示。 3. 在[任务配置信息]界面,依次填写配置信息,如图所示。 4. 在迁移方式中您可以根据需求选择对应迁移方式,如图所示。 5. 在高级选项中您可以根据需求选择对应选项,如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        数据迁移全流程迁移演示
        创建迁移任务
      • 最佳实践汇总
        本页汇总介绍数据传输服务的最佳实践。 本文汇总了数据传输服务DTS常见应用场景的操作实践,每个实践我们提供详细的方案描述和操作指导,用于指导您快速实现数据库迁移和同步。 最佳实践一览表如下: 模块 源数据库类型 目标数据库类型 相关文档 数据迁移 其他云MySQL RDS for MySQL []( for MySQL 数据迁移 本地MySQL RDS for MySQL []( for MySQL 数据迁移 其他云PostgreSQL RDS for PostgreSQL []( for PostgreSQL 数据迁移 本地PostgreSQL RDS for PostgreSQL []( for PostgreSQL 说明 目前,DTS数据同步只支持MySQL到MySQL、PostgreSQL到PostgreSQL的同步链路。进行数据同步需订购数据同步实例,操作方面其他云MySQL/PostgreSQL到RDS for MySQL/PostgreSQL、本地MySQL/PostgreSQL到RDS for MySQL/PostgreSQL的数据同步操作流程与数据迁移类似,不再赘述。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        最佳实践汇总
      • 删除迁移参数模板
        本章介绍如何删除迁移参数模板。 操作场景 当不再需要模板时,您可以登录管理控制台删除模板。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“公共配置”,进入公共配置页面。 3. 在迁移参数模板区域左侧的模板列表中,单击需要删除模板名称后的按钮。 4. 弹出“确定删除吗?”窗口,单击“确认”,即可删除模板。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        公共配置
        删除迁移参数模板
      • 计费项
        计费项 计费项说明 计费方式 备注 集群管理服务 CCE One集群管理费用由集群类型(包括天翼云集群、三方云集群和本地集群)、集群vCPU数量和订购时长决定。其中vCPU数量统计方法和vCPU计费规则见下方。 按需计费 如果关联天翼云集群,您需要创建天翼云 CCE 集群。 计费信息参见
        来自:
        帮助文档
        分布式容器云平台 CCE One
        计费说明
        计费项
      • 购买
        购买“DataArts Studio增量包批量数据迁移CDM” 在创建前,请确保您已创建DataArts Studio实例。 1. 单击已开通实例卡片上的按钮。 2. 进入创建DataArts Studio增量包页面,参见下表进行配置。 配置批量数据迁移的增量包 参数 说明 :: 增量包类型 选择批量数据迁移增量包。 计费方式 选择按需计费。 可用区 请根据实际需求选择区域和可用区。 工作空间 选择需要使用批量数据迁移增量包的工作空间。 例如在DataArts Studio实例test的A工作空间中按需创建批量数据迁移的增量包,这里工作空间选择A。 创建成功后,即可通过A工作空间查看到已经创建的批量数据迁移集群。 集群名称 自定义批量数据迁移集群名称。 实例类型 目前批量数据迁移集群支持以下规格供用户选择: cdm.medium:4核CPU、8G内存的虚拟机,最大带宽/基准带宽为1.5/0.4Gbps,能够并发执行的作业个数为20,适合单张表规模<1000万条的场景。 cdm.large:8核CPU、16G内存的虚拟机,最大带宽/基准带宽为3/0.8Gbps,能够并发执行的作业个数为30,适合单张表规模≥1000万条的场景。 cdm.xlarge:16核CPU、32G内存的虚拟机,最大带宽/基准带宽为10/4Gbps,能够并发执行的作业个数为100,适合使用10GE高速带宽进行TB以上的数据量迁移。 虚拟私有云 批量数据迁移集群所属VPC、子网、安全组,需确保批量数据迁移集群与待连接的数据源能正常通信。 用户可以根据批量数据迁移迁移的数据源端、目的端所处网络进行选择: 如果批量数据迁移集群与待连接的数据源所属不同的VPC,或者待连接的为本地数据源时,批量数据迁移集群需要绑定EIP,通过公网通信。 如果待连接的数据源为云上服务,则推荐批量数据迁移集群的网络配置与该云服务一致,此时批量数据迁移集群不用绑定EIP,通过内网通信。 如果待连接的数据源为云上服务,批量数据迁移与它在同一个VPC但所属不同子网,则可以通过配置安全组规则来使批量数据迁移集群与云服务间的网络互通。VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 子网 DataArts Studio实例中的数据集成CDM集群所属的VPC。 VPC即虚拟私有云,是通过逻辑方式进行网络隔离,提供安全、隔离的网络环境。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS等),则您需要确保CDM集群与该云服务网络互通。 同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 说明 目前CDM实例创建完成后不支持切换虚拟私有云,请谨慎选择所属虚拟私有云。 安全组 DataArts Studio实例中的数据集成CDM集群所属的安全组。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS等),则您需要确保CDM集群与该云服务网络互通。 同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 说明 目前CDM实例创建完成后不支持切换安全组,请谨慎选择所属安全组。 3. 单击“立即创建”,确认规格后提交订单。 4. 创建成功后,即可返回对应的工作空间查看已创建的批量数据迁移集群。 注意 购买“批量数据迁移/实时数据接入增量包时,需注意如下几点: 购买“按需计费”增量包,系统会按照您所选规格自动创建一个批量数据迁移的集群/实时数据接入通道。 您可以将批量数据迁移集群关机,以降低费用成本。关机期间会产生一定的低额按需费用。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        计费说明
        购买
      • 从零开始使用Kerberos认证集群
        本章节主要介绍翼MapReduce从零开始使用Kerberos认证集群。 本章节提供从零开始使用安全集群并执行MapReduce程序、Spark程序和Hive程序的操作指导。 翼MR 3.x版本Presto组件暂不支持开启Kerberos认证。 本指导的基本内容如下所示: 1.创建安全集群并登录其Manager 2.创建角色和用户 3.执行MapReduce程序 4.执行Spark程序 5.执行Hive程序 创建安全集群并登录其Manager 1.创建安全集群,请参见创建自定义集群页面,开启“Kerberos认证”参数开关,并配置“密码”、“确认密码”参数。该密码用于登录Manager,请妥善保管。 2.登录翼MR管理控制台页面。 3.单击“集群列表”,在“现有集群”列表,单击指定的集群名称,进入集群信息页面。 4.单击“集群管理页面”后的“前往Manager”,打开Manager页面。 若用户创建集群时已经绑定弹性公网IP。 a. 添加安全组规则,默认填充的是用户访问公网IP地址9022端口的规则。如需对安全组规则进行查看,修改和删除操作,请单击“管理安全组规则”。 说明 自动获取的访问公网IP与用户本机IP不一致,属于正常现象,无需处理 。 9022端口为knox的端口,需要开启访问knox的9022端口权限,才能访问Manager服务 。 b.勾选“我确认xx.xx.xx.xx为可信任的公网访问IP,并允许从该IP访问翼MR Manager页面。” 若用户创建集群时暂未绑定弹性公网IP。 a.在弹性公网IP下拉框中选择可用的弹性公网IP或单击“管理弹性公网IP”创建弹性公网IP。 b.添加安全组规则,默认填充的是用户访问公网IP地址9022端口的规则。如需对安全组规则进行查看,修改和删除操作,请点击“管理安全组规则”。 说明 自动获取的访问公网IP与用户本机IP不一致,属于正常现象,无需处理 。 9022端口为knox的端口,需要开启访问knox的9022端口权限,才能访问Manager服务 。 c.勾选“我确认xx.xx.xx.xx为可信任的公网访问IP,并允许从该IP访问翼MR Manager页面。” 5.单击“确定”,进入Manager登录页面,如需给其他用户开通访问Manager的权限,请参见用户操作指南访问集群Manager章节,添加对应用户访问公网的IP地址为可信范围。 6.输入创建集群时默认的用户名“admin”及设置的密码,单击“登录”进入Manager页面。
        来自:
        帮助文档
        翼MapReduce
        快速入门
        从零开始使用Kerberos认证集群
      • 通用类
        存储库启用自动绑定功能后未生效? 若存储库已开启自动绑定但未绑定备份策略,则将不会对未备份的资源进行自动绑定和自动备份。您可以手动绑定未备份的资源。 云服务备份控制台找不到一键迁移按钮无法迁移资源? 问题描述:用户需要把旧版备份资源迁移到新版界面,在云服务备份控制台界面无迁移资源按钮。 可能原因:用户之前旧版的备份产生了按需备份,但是账户余额不足导致欠费,所以无法迁移。 解决方法:核销欠费后刷新云服务备份控制台界面就可看到一键迁移按钮。 购买云主机备份存储库资源提示资源售罄怎么办? 每个区域有多个可用区,如果当前可用区资源售罄,建议您更换其他可用区购买或迁移云主机的可用区。
        来自:
        帮助文档
        云服务备份
        常见问题
        通用类
      • 恢复NameNode数据
        本章主要介绍翼MapReduce的恢复NameNode数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对NameNode进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对NameNode进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复NameNode任务并恢复数据。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的NameNode数据。 建议一个恢复任务只恢复一个组件的元数据,避免因停止某个服务或实例影响其他组件的数据恢复。同时恢复多个组件数据,可能导致数据恢复失败。 HBase元数据不能与NameNode元数据同时恢复,会导致数据恢复失败。 对系统的影响 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 恢复数据后需要重启NameNode,重启完成前NameNode不可访问。 恢复数据后可能导致元数据与业务数据无法匹配,HDFS进入安全模式且HDFS服务启动失败。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 登录FusionInsight Manager,请参见登录管理系统。 在FusionInsight Manager停止所有待恢复数据的NameNode角色实例,其他的HDFS角色实例必须保持正常运行,恢复数据后重启NameNode。NameNode角色实例重启前无法访问。 检查NameNode备份文件保存路径是否保存在主管理节点“ 数据存放路径 /LocalBackup/”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复NameNode数据
      • MD5校验文件一致性
        本章节主要介绍MD5校验文件一致性。 CDM数据迁移以抽取写入模式进行,CDM首先从源端抽取数据,然后将数据写入到目的端。在迁移文件到OBS时,迁移模式如下图所示。 图 迁移文件到OBS 在这个过程中,CDM支持使用MD5检验文件一致性。 抽取时 −该功能支持源端为OBS、HDFS、FTP、SFTP、HTTP。可校验CDM抽取的文件,是否与源文件一致。 −该功能由源端作业参数“MD5文件名后缀”控制(“文件格式”为“二进制格式”时生效),配置为源端文件系统中的MD5文件名后缀。 −当源端数据文件同一目录下有对应后缀的保存md5值的文件,例如build.sh和build.sh.md5在同一目录下。若配置了“MD5文件名后缀”,则只迁移有MD5值的文件至目的端,没有MD5值或者MD5不匹配的数据文件将迁移失败,MD5文件自身不被迁移。 −若未配置“MD5文件名后缀”,则迁移所有文件。 写入时 −该功能目前只支持目的端为OBS。可校验写入OBS的文件,是否与CDM抽取的文件一致。 −该功能由目的端作业参数“校验MD5值”控制,读取文件后写入OBS时,通过HTTP Header将MD5值提供给OBS做写入校验,并将校验结果写入OBS桶(该桶可以不是存储迁移文件的桶)。如果源端没有MD5文件则不校验。 说明 迁移文件到文件系统时,目前只支持校验CDM抽取的文件是否与源文件一致(即只校验抽取的数据)。 迁移文件到OBS时,支持抽取和写入文件时都校验。 如果选择使用MD5校验,则无法
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        MD5校验文件一致性
      • MySQL实例间的双向同步
        数据库 所需权限 参考赋权语句 源库 正向同步(源库A同步至目标库B)A库所需权限: 对MySQL库的SELECT权限。 对待迁移库的SELECT, EXECUTE, EVENT,TRIGGER权限。 部分全局权限: REPLICATION CLIENT REPLICATION SLAVE SHOW VIEW SHOWROUTINE PROCESS 如果是整实例迁移,需要对所有数据库的查询权限。 反向同步(目标库B同步至源库A)A库所需权限为以下全局权限: ALTER ALTER ROUTINE REATE CREATE ROUTINE CREATE TEMPORARY TABLES CREATE USER CREATE VIEW DELETE DROP EVENT EXECUTE INDEX INSERT PROCESS REFERENCES SELECT SHOW DATABASES SHOW VIEW TRIGGER UPDATE 正向同步(源库A同步至目标库B)A库参考赋权语句: GRANT SELECT ON mysql. TO '迁移账号'@'%'; GRANT SELECT, EXECUTE, EVENT, TRIGGER ON 待迁移的库. TO '迁移账号'@'%'; GRANT REPLICATION CLIENT, REPLICATION SLAVE, SHOW VIEW, SHOWROUTINE,PROCESS ON . TO '迁移账号'@'%'; 反向同步(目标库B同步至源库A)A库参考赋权语句: GRANT ALTER, ALTER ROUTINE, CREATE, CREATE ROUTINE, CREATE TEMPORARY TABLES, CREATE USER, CREATE VIEW, DELETE, DROP, EVENT, EXECUTE, INDEX, INSERT, PROCESS, REFERENCES, SELECT, SHOW DATABASES, SHOW VIEW, TRIGGER, UPDATE ON . TO '迁移账号'@'%'; 目标库 同上 同上
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        MySQL实例间的双向同步
      • 计费方式
        本文主要介绍计费方式 1、计费项 数据库复制服务从配置和数据传输两个方面收取费用,其中数据传输费为公网访问产生的数据流量费,云内网络产生的流量不进行计费。 2、收费方式 (1)预存后付费方式:提前充值现金到天翼云账户中,现金账户余额不低于100元,之后系统按照用户实际使用量进行结算。 (2)计费周期:按小时计费,以自然小时为计费单位(均以北京时间为准),不满一小时按照一小时计费。费用从用户账户现金余额中扣费。开通时间建议整点开通,开通不足一个自然小时,按一小时收费。提前删除也按照自然小时收费。 3、计费样例 以下均以北京2的MySQL全量+增量实时迁移为例进行说明。 • 场景一:免费期内入云迁移 客户A在20211201 8:00启动入云迁移,并于20211203 12:00结束任务,使用时间未超过一周,不收取费用。 • 场景二:超过免费期入云迁移 客户A在20211128 8:00启动入云迁移,并于20211206 12:00结束任务。则截止20211205 8:00为免费期,从20211205 8:00到结束任务期间按照配置费用每小时2.4元收费。 • 场景三:出云迁移 客户A使用公网网络在20211228 8:00启动出云迁移,并于20211230 8:00结束任务,DRS迁移出云100GB数据。则由启动任务到结束任务,按照每小时2.4元收取配置费用,即配置费用为2天24小时2.4元/小时115.2元。同时,出云迁移的数据传输也会计费,传输费用为100GB1.5元/GB150元,总额为115.2+150265.2元。 • 场景四:DRS开始收费前启动任务 客户A在20211126 8:00启动入云迁移,并于20211206 12:00结束任务,使用时间超过一周,但该任务在开始计费(20211127 00:00)前启动,不收取费用。 • 场景五:多任务迁移 客户A在20211201 8:00启动入云迁移任务1,并于20211206 12:00结束任务。使用公网网络在20211201 8:00启动出云迁移任务2,并于20211206 8:00结束任务,迁移出云数据200GB。 则任务1截止20211205 8:00为免费期,从20211205 8:00到结束任务期间按照每小时2.4元收取配置费用,入云传输免费。任务1收取费用(1天24小时+4小时)2.4元/小时67.2元。 则任务2从启动到结束按照每2.4元/小时收取配置费用,按照1.5元/GB收取传输费用。任务2收取费用配置费用+传输费用5天24小时2.4元/小时+200GB1.5元/GB588元。 • 场景六:非公网网络迁移 客户A使用VPC网络在20211201 8:00启动出云迁移,并于20211203 8:00结束任务,DRS迁移出云100GB数据,DRS只对公网网络按照标准收取费用,所以该任务不收取费用。 以下均以北京2的MySQL实时同步为例进行说明。 • 场景一:入云同步 客户A在20211201 8:00启动入云同步,并于20211203 12:00结束任务,任务启动到结束,按照3.53元/小时收取配置费用,即收取费用(2天24小时+4小时)3.53元/小时183.56元。 • 场景二:出云同步 客户A使用公网网络在20211228 8:00启动出云同步,并于20220102 8:00结束任务,传输数据100GB。则从启动到结束任务期间按照每3.53元/小时收取配置费用、1.5元/GB收取传输费用。即收取费用配置费用+传输费用5天24小时3.53元/小时+100GB1.5元/GB573.6元。
        来自:
        帮助文档
        数据库复制
        计费说明
        计费方式
      • 迁移后进行数据校验
        本节介绍了在迁移完成后如何进行数据校验。 当任务状态变为“增量同步”,说明全量同步已经完成,全量同步完成后,登录云数据库GaussDB 查看数据迁移结果。 1. 等待迁移任务状态变为“增量同步”。 2. 单击任务名称,进入任务详情页。 3. 在“同步进度”页签查看全量同步结果。 如图所示,本次实践将TESTINFO库中DATATYPELIST表迁移至shard0,共迁移了两条数据。 4. 验证数据一致性。 a) 在“同步对比 > 对象级对比”页面,查看库和表的迁移结果。 b) 在“同步对比 > 数据级对比”页面,创建对比任务,查看表中行的迁移结果。 5. 通过DAS连接云数据库GaussDB openGauss版的目标库“ testdatabaseinfo ”。 DAS连接实例的方法请参考《新增数据库登录》。 6. 执行如下语句,查询全量同步结果。 SELECT FROM testinfo.datatypelistafter; Oracle数据库中的模式迁移完成后,会在云数据库GaussDB 数据库中作为Schema,所以查询语句中添加Schema精确查询。 如图所示,查询表中的各个数据类型都迁移成功,并且数据正确无误。 7. 验证增量同步。 由于本次实践为“全量+增量”同步模式,全量同步完成后,如果在创建任务后有数据写入,这些写入的数据会一直同步至目标库中,直到任务结束。下面我们模拟写入另外的数据。 a) 根据本地的Oracle数据库的IP和地址,通过数据库连接工具连接数据库。 b) 执行如下语句,在源库插入一条数据。 我们插入一条“id”为1的数据。 insert into testinfo.DATATYPELIST values(1,'Migratetest','test1','test2','test3','test4', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA');commit; c) 在目标库执行如下语句查询结果。 SELECT FROM testinfo.datatypelistafter; 如图所示,在源库新增的数据,可以实时同步至目标库。 8. 结束迁移任务。 根据业务情况,待业务完全迁移至目标库,可以结束当前任务。 a) 单击“操作”列的“结束”。 b) 仔细阅读提示后,单击“是”,结束任务。 9. 迁移完成后,进行性能测试。
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移后进行数据校验
      • 续订数据迁移实例
        本页重点介绍通过天翼云官网门户续订数据迁移实例的过程。 操作步骤 1、登入天翼云门户。 登录天翼云 2、进入数据传输服务DTS控制台。 在天翼云门户首页顶部菜单栏,点击“控制中心”进入【控制中心】页面。 在【控制中心】页面顶部的资源池下拉列表框中选择相应资源池,找到页面中的“数据库”服务列表,选择“数据传输服务DTS”,进入DTS控制台。 在控制台左侧菜单栏点击“数据迁移”,进入【数据迁移】实例列表页面。 3、在实例列表,选择目标实例,点击“更多”>“续订”。 在【数据迁移】实例列表页面中,点击需要续订的迁移实例的操作列中的“更多”下拉菜单,点击“续订”,跳转到【续订】页面。 注意 当实例状态为“开通中”、“续定中”、“退订中”和“注销中”时,续订菜单不能点击。 实例为其他状态时,“续订”菜单可点击。 4、选择续订时长。 在【续订】页面的续订时长下拉列表中,选择续订的月数。 勾选已阅读服务协议选项,点击“确认”进入【支付】页面。 说明 数据迁移商用链路仅支持免费使用1个月,不支持续订,若需要使用时间超出1个月,请订购数据同步链路; 数据迁移非商用链路支持手动续订,可按1个月周期续订。 具体可参见
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        订购、续订、退订
        续订数据迁移实例
      • 安装Windows版的CMS-Agent
        本节为您介绍Windows版 CMSSMSAgent 安装启动步骤指引。 1. 使用administrators权限的用户登录迁移源端windows主机; 2. 单击左侧导航栏“迁移Agent”,阅读并对“迁移前检查项”进行核对。 3. 点击总览迁移流程中“添加源主机”按钮,进入CMSSMSAgent下载界面。 4. 在当前页面的“windows系统CMSSMSAgent安装”处,单击按钮下载所需CMSSMSAgent。 5. 在源机中查看下载好的应用程序安装包。 6. 双击进入安装程序,安装过程中,输入对应的用户AK/SK。 7. 双击图标启动CMSSMSAgent。 8. 在windows桌面右下角任务栏处,找到对应图标,启动迁移服务。 9. 提示“启动成功”弹窗即完成agent安装与启动,可在“主机管理”看到迁移源主机。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        在源端安装Agent
        安装Windows版的CMS-Agent
      • 迁移计划资源创建
        本节为您介绍云迁移服务CMS资源创建相关内容。 云迁移服务CMS提供资源创建功能,您可以通过两种方式进入。 1. [ 迁移计划 ] 界面点击资源创建,如图所示。 2. [ 资源创建 ] 界面,如图所示。 具体操作详见资源规划资源创建。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        资源规划
        迁移计划
        迁移计划资源创建
      • 跨账号同资源池迁移云主机
        本文为您介绍如何跨账号同资源池迁移云主机。 操作场景 本文通过采用镜像迁移方式实现跨账号同资源池迁移云主机,以实现跨账号同资源池使用镜像快速创建相同配置的弹性云主机。 方案介绍 镜像迁移方式实现跨账号同资源池迁移云主机的方案为:账号A将资源池A的云主机做成私有镜像,再共享给账号B;账号B接受账号A的共享镜像后,使用该镜像创建新的云主机。 说明 镜像为资源池级别,共享成功的镜像在该资源池所有可用区均可使用。 解决方案 以下以“北京北京5”资源池的云主机迁移到另一个账号为实例进行详细介绍。 步骤1:创建私有镜像 1. 登陆控制中心。 2. 选择资源池“北京北京5”。 3. 选择“产品服务列表>计算>弹性云主机”,进入云主机列表页面。 4. 选择需要迁移的云主机,单击右侧操作列的“更多>制作镜像”,进入创建私有镜像页面。 5. 填写页面参数,这里镜像类型选择“整机镜像”,镜像源选择“云主机”,选择要迁移的云主机,选择存储库和填写镜像名称。单击“下一步”。 6. 确认无误后,阅读并勾选协议,单击“确定下单”。 7. 返回私有镜像列表,在列表中查看新创建的私有镜像。 步骤2:共享私有镜像 1. 选择需要迁移的云主机,单击右侧操作列的“更多>共享”,进入共享镜像页面。 2. 填写共享镜像页面信息。 3. 选择需要共享的镜像和需要共享的账户邮箱,点击确认。 步骤3:接受共享私人镜像 1. 登陆需要将云主机迁移至的账号。 2. 登陆控制中心。 3. 选择资源池北京北京5。 4. 选择“产品服务列表>镜像服务”,进入镜像服务页面,单击“共享镜像”页签。 5. 选择需要迁移的共享镜像申请,单击接受共享,成功接受共享私人镜像。 步骤4:使用共享镜像创建云主机 1. 在共享镜像界面右侧操作栏,单击“申请云主机”,进入云主机创建界面。 2. 填写信息,完成弹性云主机的创建,可参考“创建弹性云主机”。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        云主机迁移相关实践
        跨账号同资源池迁移云主机
      • (可选)删除克隆服务器
        本章介绍如何删除克隆服务器。 操作场景 业务测试完成后或不再需要克隆服务器,您可参考本章节删除克隆服务器。 说明 删除克隆服务器后,请到弹性云主机控制台界面检查。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“迁移服务器”,进入迁移服务器列表页面。 3. 在迁移服务器列表页面选择需要删除的克隆服务器,在“操作”列单击“更多 > 删除克隆服务器”。 4. 在弹出的“删除克隆服务器”页面,单击“确定”。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        迁移服务器管理
        (可选)删除克隆服务器
      • 管理节点池
        删除节点池 删除节点池,会先删除节点池中的节点,节点删除后,原有节点上的工作负载实例会自动迁移至其他节点池的可用节点。如果工作负载实例具有特定的节点选择器,且如果集群中的其他节点均不符合标准,则工作负载实例可能仍处于无法安排的状态。 步骤 1 登录CCE控制台。 步骤 2 单击集群名称进入集群,在左侧选择“节点管理”,在右侧选择“节点池”页签。 步骤 3 单击节点池名称后的“更多 > 删除”。 步骤 4 在弹出的“删除节点池”窗口中,请仔细阅读界面提示。 拷贝节点池 通过CCE控制台可以方便的拷贝现有节点池的配置,从而创建新的节点池。 步骤 1 登录CCE控制台。 步骤 2 单击集群名称进入集群,在左侧选择“节点管理”,在右侧选择“节点池”页签。 步骤 3 单击节点池名称后的“更多 > 拷贝”。 步骤 4 在弹出的“拷贝节点池”窗口中,可以看到拷贝的节点池配置,您可以根据需要进行修改,确定配置后单击“下一步:规格确认”。 步骤 5 在“规格确认”步骤中再次确认规格并单击“提交”,即可完成节点池的拷贝并创建新的节点池。 迁移节点 您可以将同一个集群下某个节点池中的节点迁移到默认节点池(defaultpool)中,暂不支持将默认节点池(defaultpool)中的节点迁移到其他节点池中,也不支持将自定义节点池中的节点迁移到其他自定义节点池。 步骤 1 登录CCE控制台,单击集群名称进入集群。 步骤 2 在左侧导航栏中选择“节点管理”,并切换至“节点池”页签。 步骤 3 单击待迁移的节点池名称后的“节点列表”。 步骤 4 勾选需要迁移的节点,单击“更多 > 迁移”,将节点批量迁移至默认节点池。 您也可以在单个节点的“操作”栏中,单击“更多 > 迁移”,迁移单个节点。 步骤 5 在弹出的“迁移节点”窗口中进行确认。 说明: 迁移完成后,节点原有资源标签、K8S标签、Taints不受影响。
        来自:
        帮助文档
        云容器引擎
        用户指南
        节点池管理
        管理节点池
      • 订购、续订、退订
        本页介绍数据同步实例的订购、续订和退订操作说明。 订购数据同步实例的具体操作流程与订购数据迁移实例类似,可参照订购数据迁移实例。 续订数据同步实例的具体操作流程与续订数据迁移实例类似,可参照续订数据迁移实例。 退订数据同步实例的具体操作流程与退订数据迁移实例类似,可参照退订数据迁移实例。 注意 订购数据同步实例时,支持包周期和按需两种计费方式。 续订数据同步实例时,仅针对计费方式为包周期的实例。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        订购、续订、退订
      • 通过mongodump和mongorestore工具迁移数据
        本页介绍了通过mongodump和mongorestore工具迁移数据操作步骤。 通过使用mongodump和mongorestore工具来迁移文档数据库服务数据是一种常见且可靠的方法。这两个工具是MongoDB官方提供的备份和还原工具,可以帮助您将数据从一个文档数据库服务实例备份到文件,然后再将备份文件还原到另一个文档数据库服务实例。 以下是使用mongodump和mongorestore工具进行文档数据库服务数据迁移的步骤: 1. 使用mongodump备份数据: 在源文档数据库服务实例所在的服务器上运行mongodump命令,用于备份数据到文件。 mongodump命令:mongodump uriyoursourcemongodburi out/path/to/backupdirectory。 其中,yoursourcemongodburi是源文档数据库服务实例的连接URI,/path/to/backupdirectory是备份文件保存的目录。请确保您有权限在该目录下写入文件。 2. 将备份文件传输到目标服务器: 将上一步备份的文件传输到目标文档数据库服务实例所在的服务器,可以使用scp、rsync或其他文件传输工具。 3. 使用mongorestore还原数据: 在目标文档数据库服务实例所在的服务器上运行mongorestore命令,用于将备份文件还原到目标MongoDB实例。 mongorestore命令:mongorestore uriyourtargetmongodburi /path/to/backupdirectory。 其中,yourtargetmongodburi是目标MongoDB实例的连接URI,/path/to/backupdirectory是备份文件所在的目录。 4. 验证数据迁移: 运行完mongorestore命令后,您可以连接到目标文档数据库服务实例,并使用mongo shell或MongoDB客户端工具验证数据是否成功迁移。 注意 使用mongodump和mongorestore工具进行数据迁移会导致目标MongoDB实例上的数据完全被源实例中的数据覆盖。因此,在进行数据迁移前,请务必谨慎备份数据,并在生产环境之外进行测试和验证。如果迁移的目标实例上已经存在数据,那么请特别注意避免数据冲突和重复插入。另外,如果数据量较大或者需要在生产环境中进行数据迁移,考虑使用文档数据库服务副本集或分片集群,并采用逐步迁移的方式,以确保数据的连续性和一致性。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过mongodump和mongorestore工具迁移数据
      • 1
      • ...
      • 24
      • 25
      • 26
      • 27
      • 28
      • ...
      • 106
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      公共算力服务

      应用托管

      推荐文档

      《工业和信息化部关于进一步落实网站备案信息真实性核验工作方案(试行)》工信部电管〔2010〕64号

      MySQL

      产品规格

      成员权限

      Telnet/SSH/Rlogin访问

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号