云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼迁移_相关内容
      • 查看集群监控指标
        本章节主要介绍查看集群监控指标。 操作步骤 1. 登录翼MR控制台。 2. 选择“我的集群 ”,单击集群名称进入集群详情页面。 3. 在集群详情页,选择“翼MR Manager”点击“前往翼MR Manager”进入运维管理平台。 4. 进入到翼MR Manager以后,选择“监控与告警 > 指标查询” ,即可查看集群监控指标。 5. 在“所属集群服务”选择需要查看的集群。 6. 在“IP”处选择待查询的相关角色实例的节点IP,可复选。 7. 在“分类”处选择需要设置的指标分类。默认勾选常用指标分类,可自主再添加其他选项,可供选择的选项如下:进程基础、线程基础、网络、CPU、磁盘、内存、edac、文件描述符、系统、文件系统、进程、socket、软中断、时钟、虚拟内存、xfs文件系统、ARP。 8. 在“时间范围”选择需要查看监控数据的时间段。可供选择的选项如下:昨天、上周、本周、上月、本月、去年、自定义。 9. 点击“查询”并显示所选指标分类。 10. 选择任意一种指标分类,点击左侧箭头展开,显示某一指标分类下的所有指标。 说明 常用指标类别共计18项,包含如下指标: 网卡接收比特率 网卡接收丢包率 网卡接收错误包率 网卡发送比特率 网卡发送丢包率 网卡发送错误包率 CPU使用率 磁盘读取平均用时 磁盘IO使用率 磁盘写入平均用时 磁盘IO操作平均用时 内存空闲率 1分钟平均负载 5分钟平均负载 15分钟平均负载 磁盘inode空闲率 磁盘容量空闲率 Blocked状态进程数 11. 选择任一类别下的某一指标,点击右侧的“展开绘图”即查看对应集群的监控指标。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        集群概览
        查看集群监控指标
      • 服务韧性与故障恢复
        本节为您介绍云迁移服务CMS服务韧性相关内容。 CMS架构设计采用多组件服务保障及分层架构提供高可用服务。 CMS服务负载使用容器化部署,可灵活调整pod数快速扩缩容;工作负载进行pod级容灾,在部分pod损坏情况下保持服务正常运行。 Redis工作负载对迁移任务的数据进行缓存交互与读写,并对负载进行集群部署提供冗余,应对迁移任务压力峰值波动。 MySQL工作负载采用主备架构,在主服务器宕机或损坏时,保证迁移数据不丢失。 CMS支持断点续传,在迁移过程中出现断网或者迁移出错等故障,故障修复后可支持在之前的进度上继续迁移、同步。
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        安全
        服务韧性与故障恢复
      • 运行SparkSubmit作业
        本章节主要介绍在翼MR集群的后台如何提交一个新的Spark作业。 用户可将自己开发的程序提交到翼MR中,执行程序并获取结果。 前提条件 用户已经将运行作业所需的程序包和数据文件上传至HDFS系统中。 通过后台提交作业 例如安装路径为“/usr/local/spark3”。具体以实际为准。 1. 登录翼MR管理控制台。 2. 选择“我的集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3. 在“节点管理”页选中单击Master节点,选择要进入的Master节点。 4. 单击该节点右侧的“远程连接”。 5. 根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 6. 集群默认开启Kerberos认证,执行以下命令认证当前用户。 示例: klist kt /etc/security/keytabs/spark.keytab 获取spark.keytab的principalname kinit kt /etc/security/keytabs/spark.keytab spark.keytab的principalname 7. 执行如下命令运行计算圆周率作业。 sparksubmit master yarn deploymode client queue default class org.apache.spark.examples.SparkPi /usr/local/spark3/examples/jars/sparkexamples2.123.2.2.jar 100
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行SparkSubmit作业
      • 运行MapReduce作业
        本章节主要介绍在翼MapReduce集群的后台提交新的MapReduce作业。 用户可将自己开发的程序提交到翼MR中,执行程序并获取结果。 前提条件 用户已经将运行作业所需的程序包和数据文件上传至HDFS系统中。 通过后台提交作业 例如安装路径为“/usr/local/hadoop3”。具体以实际为准。 1. 登录翼MR管理控制台。 2. 选择“我的集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3. 在“节点管理”页选中单击Master节点,选择要进入的Master节点。 4. 单击该节点右侧的“远程连接”。 5. 根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 6. 集群默认开启Kerberos认证,执行以下命令认证当前用户。 示例: klist kt /etc/security/keytabs/hdfs.keytab 获取keytab的principalname kinit kt /etc/security/keytabs/hdfs.keytabx0005 keytab的principalname 7. 执行如下命令运行Example的wordcount作业。 hadoop jar /usr/local/hadoop3/share/hadoop/mapreduce/hadoopmapreduceclientjobclient3.3.3tests.jar TestDFSIO Ddfs.replication1 write nrFiles 100 fileSize 100MB
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行MapReduce作业
      • 数据集成概述
        本章节主要介绍数据集成概述。 DataArts Studio数据集成是一种高效、易用的数据集成服务,围绕大数据迁移上云和智能数据湖解决方案,提供了简单易用的迁移能力和多种数据源到数据湖的集成能力,降低了客户数据源迁移和集成的复杂性,有效的提高您数据迁移和集成的效率。 数据集成即云数据迁移(Cloud Data Migration,后简称CDM)服务,本文中的“云数据迁移”、“CDM”均指“数据集成”。 您可以通过以下方式之一进入CDM主界面: 登录CDM控制台,单击“集群管理”,进入到CDM主界面。 登录DataArts Studio控制台。选择对应工作空间的“数据集成”模块,进入CDM主界面。 选择数据集成详见下图 云数据迁移简介 云数据迁移基于分布式计算框架,利用并行化处理技术,支持用户稳定高效地对海量数据进行移动,实现不停服数据迁移,快速构建所需的数据架构。 数据集成定位详见下图 产品功能 表/ 文件/ 整库迁移 支持批量迁移表或者文件,还支持同构/异构数据库之间整库迁移,一个作业即可迁移几百张表。 增量数据迁移 支持文件增量迁移、关系型数据库增量迁移、HBase/CloudTable增量迁移,以及使用Where条件配合时间变量函数实现增量数据迁移。 事务模式迁移 支持当CDM作业执行失败时,将数据回滚到作业开始之前的状态,自动清理目的表中的数据。 字段转换 支持去隐私、字符串操作、日期操作等常用字段的数据转换功能。 文件加密 在迁移文件到文件系统时,CDM支持对写入云端的文件进行加密。 MD5校验一致性 支持使用MD5校验,检查端到端文件的一致性,并输出校验结果。 脏数据归档 支持将迁移过程中处理失败的、被清洗过滤掉的、不符合字段转换或者不符合清洗规则的数据单独归档到脏数据日志中,便于用户查看。并支持设置脏数据比例阈值,来决定任务是否成功。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        数据集成概述
      • 技术架构和功能原理
        本页为您介绍数据传输服务的技术架构和功能原理。 DTS技术架构 天翼云DTS系统技术架构图如下所示: DTS功能原理 数据迁移 DTS数据迁移提供多种迁移类型:结构对象迁移、全量数据迁移及增量数据迁移。如果需要实现不停服务迁移,需要同时选择结构对象迁移、全量数据迁移和增量数据迁移。 全量数据迁移过程可能会持续较久,在这过程中,源实例不断有业务写入,为保证迁移数据的一致性,在全量数据迁移之前,会记录当前源实例的日志位点,存储在本地数据库中。 当全量数据迁移完成后,DTS会启动增量日志回放模块,增量日志回放模块会从增量日志读取模块中获取增量数据,经过反解析、过滤、封装后迁移到目标实例,从而实现增量数据迁移。 数据同步 DTS数据同步功能能够实现两个数据源之间的增量数据实时同步。 同步链路创建过程 同步初始化 将源实例的历史存量数据在目标实例初始化一份。 增量数据实时同步 当初始化完成后进入两边增量数据实时同步阶段,该阶段DTS将实现源实例和目标实例的数据动态同步。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        技术架构和功能原理
      • 公共迁移任务操作
        本节为您介绍云迁移服务CMS服务器迁移任务中全量迁移部分公共操作。 CMS可在迁移过程中您可在“操作“选项卡,对不同任务进度进行操作。包括手动增量、停止增量、开始核查、取消核查、开始修复、取消修复、引导修复等操作。 您可在“任务管理”选项卡,进行带宽限制、CPU限制、暂停任务、继续任务、取消任务等操作。 全量迁移完成后,系统弹窗提示可进行下一步操作。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        迁移任务配置与开始全量迁移
        公共迁移任务操作
      • 修改迁移参数模板
        本章介绍如何修改迁移参数模板。 操作场景 当保存的模板不再符合您的业务要求时,您可以登录管理控制台修改模板。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“公共配置”,进入公共配置页面。 3. 在迁移参数模板区域左侧的模板列表中,单击需要修改的模板名称。在迁移参数模板区域右侧,单击“迁移参数模板名称”和“迁移参数模板配置”后的按钮,可修改模板描述和模板参数。 4. 修改完成后,单击“确定”。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        公共配置
        修改迁移参数模板
      • 将PostgreSQL迁移到MySQL
        检查项 检查内容 源库连通性检查 检查数据传输服务器能否连通源数据库。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 待同步表REPLICAIDENTITY模式检查 检查待迁移表REPLICAIDENTITY值是否都为FULL 检查源库和目标库字符集一致性检查 检查源库和目标库字符集是否一致
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将PostgreSQL迁移到MySQL
      • 节点管理
        本节为您介绍云迁移服务CMS中数据库工具迁移模块节点管理相关操作。 节点列表查看 数据库迁移工具可以查看当前用户的子节点信息,如子节点的地址、状态、类型等信息。 节点搜索 数据库迁移工具提供节点搜索功能,用户可节点名称、节点地址筛选出想要查看或操作的节点。 节点添加 数据库迁移工具提供节点信息添加功能,当用户完成新节点开通后,可通过添加节点,让节点投入使用。 操作步骤 1. 进入“数据库迁移工具”,点击“节点管理”。 2. 点击“添加节点”按钮,并填写相关信息后,点击“保存按钮”,即可完成节点添加。 节点上线/下线 数据库迁移工具提供节点上线/下线功能,用于控制节点在任务过程中的使用。当用户想停用节点时,可点击“下线”按钮,后续的迁移任务将不再发送到该节点执行;当用户想重新启用节点时,可点击“上线”按钮。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        节点管理
      • 迁移报告下载
        本节为您介绍数据库迁移工具迁移报告下载。 数据库迁移工具提供迁移报告下载功能,用户可通过点击所要查看的任务的“报告“按钮跳转至迁移报告界面,然后点击“下载报告”按钮下载pdf报告。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        迁移报告下载
      • 开始/续传迁移实例
        本页介绍如何开始或续传数据迁移实例。 开始任务 已完成实例配置的数据迁移实例,点击“开始任务”可以启动迁移任务。操作步骤如下: 1. 在【数据迁移】实例列表页面,选择状态为“未启动”的实例ID进入【实例管理】页面。 2. 在【实例管理】页面,点击底部的“开始任务”按钮。 3. 在弹出信息提示窗中,点击“确定”,确认开始实例任务。 4. 提交成功后,在【数据迁移】实例列表页面,检查对应实例的状态已变为“运行中”。 续传任务 DTS在完成任务配置后运行过程中,可能会需要暂停任务,或任务运行遇到异常、此时任务会停止运行,状态变为“未启动”。用户可以在处理完成需要处理的问题后,点击“开始任务”重新启动。操作步骤具体如下: 1. 在【数据迁移】实例列表页面找到需要启动的实例,点击实例ID,进入【实例管理】页面。 2. 在【实例管理】页面,点击底部的“开始任务”按钮。 3. 在弹出信息提示窗中,点击“确定”。 4. 提交成功后,DTS会在之前停止的位点开始续传,在【数据迁移】实例列表页面,检查对应实例的状态已变为“运行中”。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        实例管理
        生命周期管理
        开始/续传迁移实例
      • 弹性云主机可以迁移到其他地域/账号吗
        本文介绍弹性云主机可以迁移到其他地域/帐号吗? 您可以通过镜像迁移方式实现云主机的跨帐号跨地域迁移。 将云主机制作整机镜像 在弹性云主机页面选中需要迁移的弹性云主机点击关机,关机完成后,点击右侧更多制作镜像,选择云主机系统盘或数据盘,填写镜像名称,点击确认下单,等待镜像创建完成。 第一步:将镜像共享给其他账号,其他账号接收了共享镜像后,即可根据镜像创建新的云主机。 第二步:导出镜像文件,在待迁移地域,通过镜像文件制作镜像,待镜像完成,可以通过镜像创建新的云主机。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        迁移云服务器
        弹性云主机可以迁移到其他地域/账号吗
      • 云迁移时限制数据访问
        本节为您介绍云迁移服务迁移时限制数据访问相关内容。 云迁移期间限制对数据的访问对于力求安全传输信息的企业来说是至关重要的一步。您应该采取多个步骤来确保只有预期的用户才能在必要时访问数据。这些步骤包括如下: 实现和实施用户级身份验证和授权规则。 建立可靠的双因素身份验证流程。 使用来自云提供商的内置安全策略。 传输之前加密所有数据。 迁移期间定期审计谁拥有访问权。 迁移过程中,对拥有敏感信息的系统完成定期的漏洞扫描。 删除与被解雇员工相关的任何凭据或访问密钥。
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        安全
        云迁移时限制数据访问
      • 自建Oracle迁移至自建人大金仓
        本节为您介绍自建Oracle迁移至自建人大金仓任务配置。 前提条件 自建人大金仓目标端版本为KingbaseESV7、V8版本 目标端权限要求 迁移模式 所需权限 全量迁移 数据库模式(schema)的owner角色 结构迁移 数据库模式(schema)的owner角色 增量迁移 用户为超级用户或者复制角色 稽核修复 数据库模式(schema)的owner角色 目标端配置 数据源类型 选定为KingbaseES,可将源端迁移至版本范围内的KingbaseES数据库 服务器IP 目标端数据库的连接IP 端口号 目标端数据库的端口 用户名 用于连接待目标端数据库的用户名称 密码 用于连接待目标端数据库的用户的密码 数据库 目标端用于接收源端数据的数据库名称 模式 目标端用于接收源端数据的模式(schema)名称
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建Oracle为源的迁移任务配置
        自建Oracle迁移至自建人大金仓
      • 组件|应用程序任务搜索
        本节为您介绍云迁移服务CMS异构迁移组件应用程序任务搜索相关内容。 云迁移服务提供组件应用程序搜索功能,您可以在左侧导航栏选择迁移评估点击【异构评估】按钮,进入 [ 组件应用程序 ] 界面,选择检索时间或通过任务名称进行搜索,如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        迁移评估
        异构评估
        组件|应用程序任务搜索
      • 查询半托管迁移代理列表(1)
        参数 参数类型 说明 示例 下级对象 migrationName String 代理上绑定的迁移任务名称 huaixiong11 migrationStatus String 代理上绑定的迁移任务状态,1.creating:创建中;2.created:已创建;3.createfailed:创建失败请重新创建任务;4.starting:启动中;5.waiting:排队中;6.executing:迁移中;7.stopping:暂停中;8.stopped:暂停;9.restoring:恢复中;10.agentlost:代理已失联;11.finished:迁移结束;12.failed:迁移中断;13.finishederror:迁移结束存在失败对象;14.retrying:重试中;15.deleting:删除中 finished
        来自:
      • 计费项
        计费项 计费项说明 计费方式 备注 集群管理服务 CCE One集群管理费用由集群类型(包括天翼云集群、三方云集群和本地集群)、集群vCPU数量和订购时长决定。其中vCPU数量统计方法和vCPU计费规则见下方。 按需计费 如果关联天翼云集群,您需要创建天翼云 CCE 集群。 计费信息参见
        来自:
        帮助文档
        分布式容器云平台 CCE One
        计费说明
        计费项
      • 删除迁移任务
        本节主要介绍删除迁移任务 对于备份迁移任务,您可选择删除迁移任务。被删除后的任务将不会再出现在任务列表中,请谨慎操作。 前提条件 已登录数据复制服务控制台。 删除任务 步骤 1 在“备份迁移管理”页面的迁移列表中,选择需要删除的任务,单击操作列的“删除”按钮。 步骤 2 单击“确定”,提交删除任务。
        来自:
        帮助文档
        数据库复制
        用户指南
        备份迁移
        任务管理
        删除迁移任务
      • 从零开始使用Kerberos认证集群
        本章节主要介绍翼MapReduce从零开始使用Kerberos认证集群。 本章节提供从零开始使用安全集群并执行MapReduce程序、Spark程序和Hive程序的操作指导。 翼MR 3.x版本Presto组件暂不支持开启Kerberos认证。 本指导的基本内容如下所示: 1.创建安全集群并登录其Manager 2.创建角色和用户 3.执行MapReduce程序 4.执行Spark程序 5.执行Hive程序 创建安全集群并登录其Manager 1.创建安全集群,请参见创建自定义集群页面,开启“Kerberos认证”参数开关,并配置“密码”、“确认密码”参数。该密码用于登录Manager,请妥善保管。 2.登录翼MR管理控制台页面。 3.单击“集群列表”,在“现有集群”列表,单击指定的集群名称,进入集群信息页面。 4.单击“集群管理页面”后的“前往Manager”,打开Manager页面。 若用户创建集群时已经绑定弹性公网IP。 a. 添加安全组规则,默认填充的是用户访问公网IP地址9022端口的规则。如需对安全组规则进行查看,修改和删除操作,请单击“管理安全组规则”。 说明 自动获取的访问公网IP与用户本机IP不一致,属于正常现象,无需处理 。 9022端口为knox的端口,需要开启访问knox的9022端口权限,才能访问Manager服务 。 b.勾选“我确认xx.xx.xx.xx为可信任的公网访问IP,并允许从该IP访问翼MR Manager页面。” 若用户创建集群时暂未绑定弹性公网IP。 a.在弹性公网IP下拉框中选择可用的弹性公网IP或单击“管理弹性公网IP”创建弹性公网IP。 b.添加安全组规则,默认填充的是用户访问公网IP地址9022端口的规则。如需对安全组规则进行查看,修改和删除操作,请点击“管理安全组规则”。 说明 自动获取的访问公网IP与用户本机IP不一致,属于正常现象,无需处理 。 9022端口为knox的端口,需要开启访问knox的9022端口权限,才能访问Manager服务 。 c.勾选“我确认xx.xx.xx.xx为可信任的公网访问IP,并允许从该IP访问翼MR Manager页面。” 5.单击“确定”,进入Manager登录页面,如需给其他用户开通访问Manager的权限,请参见用户操作指南访问集群Manager章节,添加对应用户访问公网的IP地址为可信范围。 6.输入创建集群时默认的用户名“admin”及设置的密码,单击“登录”进入Manager页面。
        来自:
        帮助文档
        翼MapReduce
        快速入门
        从零开始使用Kerberos认证集群
      • 自建MySQL迁移至自建MySQL
        本节为您介绍自建MySQL迁移至自建MySQL任务配置。 前提条件 (1)自建MySQL目标端版本为5.6、5.7、8.0版本,且版本高于或等于源端。 (2)若您将列名仅大小写不同的字段写入到目标MySQL数据库的同一个表中,可能会因为MySQL数据库列名大小写不敏感,导致迁移失败。 目标端权限要求 迁移模式 所需权限 基础权限 SELECT, INSERT, DELETE 全量迁移 需具备基础权限,且具备CREATE、ALTER 结构迁移 需具备基础权限,且具备CREATE, ALTER, REFERENCES, INDEX, TRIGGER, CREATE VIEW, DROP, CREATE ROUTINE, EXECUTE,SUPER (根据不同的结构,所需权限也不同) 增量迁移 需具备基础权限 稽核修复 需具备基础权限 目标端配置 数据源类型 选定为MySQL,可将源端迁移至版本范围内的MySQL数据库 服务器IP 目标端数据库的连接IP 端口号 目标端数据库的端口 用户名 用于连接待目标端数据库的用户名称 密码 用于连接待目标端数据库的用户的密码 数据库 目标端用于接收源端数据的数据库名称
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建MySQL为源的迁移任务配置
        自建MySQL迁移至自建MySQL
      • 物理机 DPS
        物理机服务(CTDPS,Dedicated Physical Server)是基于天翼云软硬结合技术研发的一款拥有极致性能的裸金属服务器,兼具云主机的灵活弹性、物理机的稳定,提供算力强劲的计算类服务,能够完全无缝和天翼云全产品融合(例如网络、存储等),为您提供专属的云上物理服务器,为大数据、核心数据库、高性能计算等业务提供服务稳定、数据安全、性能卓越的算力服务。
        来自:
        帮助文档
        物理机 DPS
      • 创建任务
        本节问您介绍数据迁移任务的创建。 1. 进入“任务管理”界面,点击“添加任务”按钮。 2. 进入“创建迁移任务”界面,选择源节点,选择目标节点,并填写对应的AK/SK。 3. 选择迁移方式,这里默认选择按整个存储桶迁移 。 4. 根据需要进行高级选项设置。 5. 相关信息填写完成后,点击完成,进入任务详情查看页面,确认此前填写的信息是否正确。 6. 确认无误后,点击开始迁移,创建迁移任务完成,迁移任务开始进行。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据迁移服务模块
        添加任务
        创建任务
      • 指标告警
        本节介绍了:指标告警的用户指南。 应用场景 在云容器引擎服务中,资源监控已经对接了云监控服务,并能够使用云监控提供的指标告警能力。 前提条件 已创建集群,具体操作请参见 用户指南 > 集群 > 新建集群 章节。若已有集群,无需重复操作。 集群已安装ccsemonitor插件,可参考 用户指南 > 插件 章节 创建通知组 登陆云容器引擎控制台, 点击左侧导航栏中的集群,进入集群列表页面。 在集群列表中点击需要配置告警的集群,进入集群管理页面. 左侧菜单栏选择 运维管理 > 指标告警 > 通知组 进入通知组配置页面。 通知组支持联系人、翼连、WebHook集成三种通知对象,其中联系人支持手机号(短信)和邮箱(邮件)、翼连支持发送到翼连群、WebHook支持发送到用户指定的WebHook后端。 创建基础策略 登陆云容器引擎控制台, 点击左侧导航栏中的集群,进入集群列表页。 在集群列表中点击需要配置告警的集群,进入集群管理页面。 左侧菜单栏选择 运维管理 > 指标告警 > 告警策略 进入通知策略配置页面,点击按钮创建通知策略 创建通知策略。 通知策略可以配置通知对象、通知模板、渲染API地址、通知时段,其中通知对象为用户在通知组设置的对象,邮件、短信、翼连三种告警方式支持分别独立配置模板,一般没有特殊需求使用默认模板即可。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        运维管理
        监控
        指标告警
      • 配置队列
        本章节主要介绍翼MapReduce的配置队列操作。 操作场景 根据业务需求,管理员可以在FusionInsight Manager修改指定租户的队列配置。 前提条件 已添加使用Superior调度器的租户。 操作步骤 1. 在FusionInsight Manager,单击“租户资源”。 2. 单击“动态资源计划”页签。 3. 单击“队列配置”页签。 4. “集群”参数选择待操作的集群名称,然后指定租户资源名的“操作”列,单击“修改”。 说明 l 在“租户资源管理”页签左侧租户列表,单击目标的租户,切换到“资源”页签,单击“队列配置(队列名)”后面的也能打开修改队列配置页面。 l 一个队列只能绑定一个非default资源池。 l 对于“每个YARN容器最多分配核数”、“每个YARN容器最大分配内存(MB)”、“最多运行任务数”、“每个用户最多运行任务数”和“最多挂起任务数”等参数,为便于操作,当子租户值为1时,父租户值可以设置为具体限制值;当父租户设置为具体限制值时,子租户可以设置为1。 l “每个YARN容器最多分配核数”和“每个YARN容器最大分配内存(MB)”需要同时修改为非1的值才会生效。 队列配置参数 参数名 描述 AM最多占有资源(%) 表示当前队列内所有Application Master所占的最大资源百分比。 每个YARN容器最多分配核数 表示当前队列内单个YARN容器可分配的最多核数,默认为1,表示取值范围内不限制。 每个YARN容器最大分配内存(MB) 表示当前队列内单个YARN容器可分配的最大内存,默认为1,表示取值范围内不限制。 最多运行任务数 表示当前队列最多同时可执行任务的数目,默认为1,表示取值范围内不限制(为空意义相同),为0表示不可执行任务。取值范围为1~2147483647。 每个用户最多运行任务数 表示每个用户在当前队列中最多同时可执行任务的数目,默认为1,表示取值范围内不限制(为空意义相同),为0表示不可执行任务。取值范围为1~2147483647。 最多挂起任务数 表示当前队列最多同时可挂起任务的数目,默认为1,表示取值范围内不限制(为空意义相同),为0表示不可挂起任务。取值范围为1~2147483647。 资源分配规则 表示单个用户任务间的资源分配规则,包括FIFO和FAIR。一个用户若在当前队列上提交了多个任务,FIFO规则代表一个任务完成后再执行其他任务,按顺序执行。FAIR规则代表各个任务同时获取到资源并平均分配资源。 默认资源标签 表示在指定资源标签(Label)的节点上执行任务。 Active状态 ACTIVE表示当前队列可接受并执行任务。 INACTIVE表示当前队列可接受但不执行任务,若提交任务,任务将处于挂起状态。 Open状态 OPEN表示当前队列处于打开状态。 CLOSED表示当前队列处于关闭状态,若提交任务,任务直接会被拒绝。 故障时是否队列迁移 集群开启单集群跨AZ高可用时,如果AZ故障后,需要当该租户正在运行的队列重新提交至其他AZ,可设置“故障时是否队列迁移”参数为“是”。 5. 单击“确定”完成配置。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        管理资源
        配置队列
      • Kafka业务迁移
        方案一:先迁生产,再迁消费 指先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。 1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。 2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。 3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。 4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。 5、重启消费业务,使得消费者从新Kafka实例中消费消息。 6、观察消费者是否能正常从新Kafka实例中获取数据。 7、迁移结束。 本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。 方案二:同时消费,后迁生产 指消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。 1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。 说明 原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。 2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。 3、重启生产客户端,将生产业务迁移到新Kafka实例中。 4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。 5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 6、迁移结束。 迁移过程由业务自主控制。本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。 FAQ:如何将持久化数据也一起迁移 如果需要将原Kafka的已消费数据也迁移到Kafka专享实例,可以使用开源工具MirrorMaker,模拟成原Kafka的消费客户端,以及新Kafka实例的生产客户端,将Kafka所有消息数据迁移到新的Kafka实例。 需要注意的是,天翼云Kafka实例为3副本存储,因此建议实例存储空间为原业务的单副本消息存储的3倍。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka业务迁移
      • 绑定目标机
        本节为您介绍如何绑定/解绑迁移任务目标机。 操作场景 迁移前,您需要绑定目标机。该目标机用来接收迁移源端的数据。 前提条件 完成迁移前的准备工作:包括账号注册认证、账户余额确认、迁移网络打通等。具体请见迁移前准备工作。 在源端安装Agent。具体请见在源端安装Agent。 完成目标机创建。具体请参见创建目标机。 目标机开放8000、8001端口。具体请参见检测目标机。 操作步骤 1. 进入“服务器迁移服务”,点击“主机管理”界面。 2. 可以看到未绑定的迁移源机处于“未绑定目标机”状态。 3. 点击迁移源机操作栏的“开始迁移”按钮,随后点击“前往”,系统将直接跳转至绑定界面。 4. 或在主机管理的“主机详情”页签中,单击“创建迁移任务”按钮来进行目标机的绑定操作。 5. 单击“选择云主机”按钮。 6. 单击“绑定”按钮,绑定目标机。 若云主机较多可选择“未绑定”复选框或通过搜索框搜索,选择刚刚创建的PE主机。 7. 在绑定过程中,系统会弹出提示框,点击“确定”按钮以完成绑定操作。 8. 绑定成功后,系统将自动跳转至相应页面,或您也可以手动访问“配置迁移任务”页面。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        服务器迁移服务模块
        绑定目标机
      • 变更可用区
        支持的迁移类型 常见场景 从单可用区迁移至单可用区 将实例迁移至ECS所属的可用区,同一可用区ECS和实例通过内网连接拥有更低的网络延迟。 从双可用区迁移至双可用区 将实例迁移至ECS所属的可用区,同一可用区ECS和实例通过内网连接拥有更低的网络延迟。 从单可用区迁移至双可用区 提高实例的容灾能力,实现跨机房容灾。 单可用区实例可以承受服务器和机架级别的故障,而多可用区实例通过跨机房部署可抵御机房级别的故障,从而提升容灾能力。 从双可用区迁移至单可用区 满足特定功能的要求。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例生命周期管理
        变更可用区
      • 主机迁移服务使用流程
        本章介绍主机迁移服务的基本使用流程。 本章介绍主机迁移服务的基本使用流程。 图 主机迁移服务使用流程
        来自:
        帮助文档
        主机迁移服务SMS
        快速入门
        主机迁移服务使用流程
      • 迁移评估快速配置
        本节为您介绍云迁移服务CMS中数据库迁移工具迁移评估配置工作,包括注意事项,操作步骤。 注意事项 本文仅简单介绍迁移评估的通用配置流程,不同数据库类型在配置时略有不同。具体配置步骤请阅读迁移评估源库配置。 操作步骤 1. 进入迁移评估的任务列表界面。 2. 单击“创建评估”按钮,进入迁移评估配置界面。 3. 填写好评估参数和目标数据库连接后,单击测试连接按钮。 4. 通过连接测试后点击“下一步:启动评估”,即可查看评估结果。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        数据库迁移服务模块
        迁移评估快速配置
      • 迁移记录与报告
        本节为您介绍云迁移服务CMS中数据迁移工具如何查看历史任务及迁移报告。 历史任务检索 可以展示用户所有历史任务信息;当用户迁移任务完成后,会生成相应的历史任务,包括历史任务的任务名称、源节点、目标节点、创建日期、任务状态等。 左侧导航栏单击“任务管理”后,可单击"详情"跳转任务最早,查看具体任务信息。 完成报告生成 当迁移任务完成时或者迁移任务取消时,平台能自动生成报告。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        数据迁移服务模块
        迁移记录与报告
      • VPC对等连接组网迁移流程
        本章节向您介绍VPC对等连接组网迁移流程。 步骤一:创建云服务资源 1. 创建1个企业路由器,构建一个同区域组网只需要1个企业路由器。 2. 在每个VPC内,各创建1个迁移验证子网,该子网无法通过VPC对等连接互通,但是可以通过ER互通,用来验证迁移过程中VPC和ER之间的网络通信情况。 3. 在每个迁移验证子网内,各创建一个ECS,登录ECS执行ping命令验证VPC和ER之间的网络通信情况。 步骤二:在企业路由器中添加VPC连接及路由 1. 在企业路由器中添加“虚拟私有云(VPC)”连接,即将3个VPC分别接入企业路由器中。迁移时,需要手动在VPC路由表中添加规划的大网段路由,不开启“配置连接侧路由”功能。 2. 检查ER路由表中的路由。本示例中,ER开启了“默认路由表关联”和“默认路由表传播”功能,那么在ER中添加“虚拟私有云(VPC)”连接时,系统会自动添加ER指向VPC的路由,无需手动添加,只需要检查即可。 步骤三:验证VPC和ER之间的网络通信情况 1. 在VPC路由表中,添加指向ER的迁移验证路由,用于验证VPC和ER的通信情况。 2. 登录迁移验证ECS,执行ping命令,验证VPC和ER之间的网络通信情况。 3. 验证完成后,删除迁移验证相关的路由、ECS和子网。 步骤四:在VPC路由表中添加路由 1. 在VPC路由表中,添加指向VPC对等连接的临时通信路由,确保迁移过程中,删除原有VPC对等连接路由时流量不中断。 2. 在VPC路由表中,添加指向ER的大网段路由,用作VPC和ER的通信。 步骤五:执行迁移操作 在VPC路由表中,删除原有指向VPC对等连接的路由。 迁移过程中需要实时关注业务流量,如果出现流量中断,请立即添加回已删除的路由。 步骤六:删除原有VPC对等连接 对等连接路由删除完成,且业务正常时,建议您再观察一段时间,确保没有问题后,再删除VPC对等连接,本操作会同步删除VPC路由表中关联的临时通信路由。
        来自:
        帮助文档
        企业路由器
        最佳实践
        将VPC对等连接组网迁移至企业路由器
        VPC对等连接组网迁移流程
      • 1
      • ...
      • 21
      • 22
      • 23
      • 24
      • 25
      • ...
      • 105
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      模型推理服务

      应用托管

      科研助手

      一站式智算服务平台

      推荐文档

      云课堂 第十二课:再论ORACLE上云通用技术方案

      配置老化周期

      删除

      删除手动备份

      上传资料常见问题

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号