云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼迁移_相关内容
      • 自建Oracle为源的迁移任务源端配置
        本节为您介绍自建Oracle为源的迁移任务源端配置。 前提条件 (1)自建Oracle数据库的源端版本为10g、11g、12c、18c或19c版本。 (2)自建Oracle数据库源端已开启ARCHIVELOG(归档模式),设置合理的归档日志保持周期且归档日志能够被访问。 (3)自建Oracle数据库源端已开启Supplemental Logging,且已开启supplementallogdatapk,supplementallogdataui。 (4)目标端数据库的存储空间必须大于源端数据库所占用的存储空间。 使用限制 无主键表仅支持全量迁移,但不支持增量迁移和稽核修复; 目标库非自建Oracle的情况下,结构迁移仅支持迁移表结构; 不支持迁移system、sys等Oracle系统库; 不支持迁移外部表; 迁移过程中,可迁移源端数据库的表结构、全量数据和增量数据; 如果源库存在varchar2类型的空字符串(Oracle会将其处理为null)且对应的目标库字段有非空约束,将会导致迁移任务失败; 单独更新大文本字段场景不支持,任务会失败; 迁移触发器时,建议源库和目标库用户名保持一致,如果用户名不一致,将可能导致触发器迁移失败。 源端权限要求 迁移模式 所需权限 基础权限 SELECT ANY TABLE, SELECT ANY DICTIONARY,CONNECT, SELECTCATALOGROLE, CREATE SESSION 全量迁移 需具备基础权限 结构迁移 需具备基础权限,且具备CREATE ANY MATERIALIZED VIEW 增量迁移 物化视图增量:需基本基础权限,且具备CREATE ANY TABLE, DROP ANY TABLE, COMMENT ANY TABLE, DELETE ANY TABLE权限 归档日志增量:需具备基础权限,且具备LOGMINING, FLASHBACK ANY TABLE, SELECT ANY TRANSACTION, EXECUTECATALOGROLE, EXECUTE ON DBMSLOGMNRD, EXECUTE ON DBMSLOGMNR, EXECUTE ON DBMSFLASHBACK, SELECT ON SYS.COL$, SELECT ON SYS.USER$, SELECT ON SYS.OBJ$,CREATE ANY MATERIALIZED VIEW权限 稽核修复 需具备基础权限
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建Oracle为源的迁移任务配置
        自建Oracle为源的迁移任务源端配置
      • 对比迁移项
        创建快捷对比 为了加快割接过程,简化对比的操作步骤,提升操作效率,DRS提供快捷对比的功能,无需进入具体实例,在迁移管理界面即可进入对比界面。该功能只支持对比所有迁移对象,且只有增量迁移中的任务才可以使用该功能。 步骤 1 在“实时迁移管理”页面,选择指定的实时迁移任务,单击“操作”列的“创建对比”。 步骤 2 在“创建对比任务”页面,根据业务需要,选择“立即启动”或“稍后启动”后,单击“是”启动对比任务。 查看对比任务 步骤 1 在“实时迁移管理”页面,选择指定的实时迁移任务,单击“操作”列的“查看对比”。 步骤 2 在“迁移对比”页签,可查看数据对比结果。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        对比迁移项
      • 产品优势
        本章节介绍主机迁移服务的优势。 简单易用 您只需在源端服务器安装和配置Agent、在服务端设置目的端并启动迁移任务、“持续同步”状态时启动目的端,其余事情都由主机迁移服务处理。 创建迁移任务您只需三步。即选择和配置源端、目的端及确认任务信息。 业务平滑切换 在主机迁移过程中您无需中断或者停止业务。 若不选择持续同步,只需在最后一次数据同步时短暂的停止业务,待最后一次增量数据同步完成后,目的端的业务即可启动,大大减少业务中断时间。 若选择持续同步,只需在“持续同步”状态时,启动目的端前短暂停止业务,大大减少业务中断时间。Linux文件级迁移,暂不支持“持续同步”功能。 兼容性好 支持主流云服务平台X86虚拟机迁移,和X86物理服务器迁移。 支持约90款主流Windows Server与Linux Server 操作系统迁移。 传输高效 迁移网络利用率达到90%以上。 安全性高 使用AK/SK校验迁移Agent身份。 传输通道使用SSL加密,保证您数据传输安全性。 SSL加密的证书和密钥是动态生成。
        来自:
        帮助文档
        主机迁移服务SMS
        产品介绍
        产品优势
      • 迁移时长
        本环节为您介绍数据迁移服务迁移时长相关问题。 我如何能知道迁移任务的进度? 一般情况,对象存储服务的迁移速度的参考值是1020TB每天。由于迁移速度受源端对象个数、大小以及公网传输距离影响,建议用户创建一个实际数据的迁移任务来测试实际迁移速度,实际最大迁移速度为单个任务平均速度的5倍(单个Region内并发任务数最大为5)。 单个迁移任务速度可以在“迁移任务”界面中查看实时任务迁移速度。 若您在创建迁移任务时选择使用SMN消息通知功能,迁移任务结果也将通过电子邮件、短信以及自定义URL等方式发送给您。 迁移需要多长时间? 您可以通过以下公式进行迁移前估算:迁移时长总数据量/带宽大小/81.25。详细时间预估请参见评估迁移时间与测试传输速度。 迁移带宽由什么决定? 以下三点中最小带宽为准: 数据源出口带宽。 目标端入口带宽。 如何确定任务是否卡死 查看数据迁移工具当前阶段速率展示(迁移速率、核查个数)是否正常。 l 查看源端迁移日志,如果日志信息长时间未刷新,可能是任务异常。 为什么迁移速率有时远远低于带宽大小? 出现这种现象的原因,一般但不限于以下场景: 大文件多 稀疏文件多
        来自:
        帮助文档
        云迁移服务CMS
        常见问题
        数据迁移服务模块
        迁移时长
      • 将MySQL迁移到PostgreSQL
        数据库账号及权限 数据库账号及权限如下表: 数据库 所需权限 参考赋权语句 源库 源库为MySQL5.7时: 对MySQL库的SELECT权限。 对待迁移库的SELECT,EVENT,TRIGGER权限。 部分全局权限: REPLICATION CLIENT REPLICATION SLAVE SHOW VIEW PROCESS 如果是整库迁移,需要对所有数据库的查询权限。 源库为MySQL8.0时: 对MySQL库的SELECT权限。 对待迁移库的SELECT, EXECUTE, EVENT,TRIGGER权限。 部分全局权限: PROCESS REPLICATION CLIENT REPLICATION SLAVE SHOW VIEW SHOWROUTINE 如果是整库迁移,需要对所有数据库的查询权限。 源库为MySQL5.7时: GRANT SELECT ON mysql. TO '迁移账号'@'%'; GRANT SELECT, EVENT,TRIGGER ON 待迁移的库. TO '迁移账号'@'%'; GRANT REPLICATION CLIENT, REPLICATION SLAVE, SHOW VIEW, PROCESS ON . TO '迁移账号'@'%'; 源库为MySQL8.0时: GRANT SELECT ON mysql. TO '迁移账号'@'%'; GRANT SELECT, EXECUTE, EVENT, TRIGGER ON 待迁移的库. TO '迁移账号'@'%'; GRANT PROCESS, REPLICATION SLAVE, REPLICATION CLIENT, SHOW VIEW, SHOWROUTINE ON . TO '迁移账号'@'%'; 目标库 schema的创建权限 授予用户username在数据库databasename下的schema创建权限: GRANT CREATE ON DATABASE databasename TO username; 注意 如果待迁移对象包含用户自定义function,则在满足上述权限的基础上,目标端数据库同时需将logbintrustfunctioncreators参数设置为1,参考语句如下:set global logbintrustfunctioncreators 1;
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 常见问题
        是否支持配置迁移文件(Object)的大小? 支持,可以通过配置文件migrate.conf中参数objectSize进行配置迁移文件(Object)的范围。格式是NM,表示迁移N至M大小的文件。取值:N和M是大于等于0的整数,且N≤M,单位是字节。默认不配置此项,表示迁移所有大小的文件。 迁移过程中任务被终止了如何继续? 可以按照下列步骤继续终止的任务: 1. 保留上次迁移执行过程中产生的backup文件。 说明 如果不在原服务器上继续执行迁移任务,而是换一台服务器上重新开始迁移任务,则需要将backup文件拷贝到新服务器的迁移工具所在目录下。 2. 查看nextMarker.txt文件中记录的上次数据迁移位置。修改迁移任务配置文件(migrate.conf),设置srcMarker为上次迁移位置,然后运行迁移工具。 如何提升迁移速度? 在客户端网络环境不变的情况下,可以通过调整如下参数来提升迁移速度: 将系统配置文件(system.conf)中的threadNum参数调大,执行多线程并发迁移,譬如调整到50。 将迁移任务配置文件(migrate.conf)中的isSkipExistFile参数设置为true,当目标资源池中已有同名文件则跳过不再迁移。 说明 这个参数根据实际情况而定。 如果srcType为OOS时,且迁移源端和目的端的资源池为同类型,可以将迁移任务配置文件(migrate.conf)中的isAcceleratedMigration参数设置为true,使用加速迁移。 将迁移任务配置文件(migrate.conf)中的importSince参数设置为增量迁移的时间戳,可以只迁移该时间戳之后的对象。
        来自:
        帮助文档
        对象存储(经典版)I型
        常用工具
        OOS数据迁移工具
        常见问题
      • 控制中心
        本节为您介绍云迁移服务CMS控制中心的使用。 列表查看 云迁移服务CMS提供控制中心面板,您可以在控制中心查看迁移计划摘要、迁移摘要、迁移进度展示等信息,如图所示。 迁移计划状态选择 云迁移服务CMS控制面板提供迁移状态选择,用户可以自行根据需要选择迁移状态信息,如图所示。 查看所有迁移计划 云迁移服务CMS控制面板提供查看所有迁移计划功能,用户可以点击【查看所有迁移计划】按钮进入迁移计划列表。如图所示。 图为[迁移计划]界面。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        控制中心
      • 分片迁移
        您可以根据实际情况,将您分片上的数据迁移到其他分片上。 注意事项 迁移任务执行期间将占用实例资源,建议您在任务完成后及时将其关闭或删除。 为避免对线上业务造成影响,建议将迁移服务部署在业务压力较低的非生产节点。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览 页面。 2. 在左侧导航栏,选择DRDS > 实例管理 ,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息 页面。 4. 单击Schema管理 ,进入目标实例的Schema 管理页面。 5. 在Schema列表中,找到目标Schema,单击Schema名称或者操作 列的管理 ,进入Schema基本信息页面。 6. 单击分片迁移 ,进入分片迁移页签。 7. 单击新增迁移任务。 8. 在对话框中配置迁移相关参数,然后单击确定。 参数 说明 任务执行节点 执行迁移任务的DBProxy节点。 分片节点 选择分片节点。 分片目标MySQL集群 选择目标MySQL集群。 9. 单击分片迁移历史页签。 您可以查看当前分片迁移的历史记录信息,包括分片节点、目标MySQL集群、数据库名称、迁移任务、状态、迁移时间、操作人员等信息。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        Schema管理
        分片迁移
      • Redis到GeminiDB Redis的迁移
        前提条件 部署迁移工具drsredis。 保证迁移工具drsredis、源端Redis和目标端GeminiDB Redis网络互通。 操作步骤 如需进行Redis到GeminiDB Redis的迁移,您可以在管理控制台右上角,选择“工单 > 新建工单”,联系技术支持进行处理。 迁移性能参考 环境:源端单节点Redis和迁移工具drsredis部署在8U32GB的弹性云服务器上,目标端为4U16GB,3节点GeminiDB Redis实例。 场景一: 源端replication buffer采用默认值(slave 268435456 67108864 60),该默认值表示缓存积压数据超过268435456bytes(256MB),或超过67108864bytes(64MB)且持续60s,源端会主动断开与从节点的连接。 源端写入速率5MB/s,迁移过程可持续进行,不会产生源端buffer满造成的同步失败。 迁移工具读取数据的速率和源端写入速率一致。 场景二: 源端replication buffer不做限制(config set "clientoutputbufferlimit" "slave 0 0 0")。 源端写入速率10MB/s,容量充足的情况下,迁移持续进行。 迁移工具读取数据的速率和源端写入速率一致。 结论: 在环境上,使用8U32GB弹性云服务器部署迁移工具,若源端replication buffer采用默认值,迁移可在源端5MB/s的写入速率下进行;若源端对replication buffer不做限制,迁移可在源端10MB/s的写入速率下进行。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        数据迁移
        Redis到GeminiDB Redis的迁移
      • Kafka业务迁移
        迁移准备 (1)配置网络环境 Kafka实例分内网地址以及公网地址两种网络连接方式。如果使用公网地址,则消息生成与消费客户端需要有公网访问权限。 (2)创建Kafka实例 Kafka的规格不能低于原业务使用的Kafka规格。 (3)创建Topic 在新的Kafka实例上创建与原Kafka实例相同配置的Topic,包括Topic名称、副本数、分区数、消息老化时间,以及是否同步复制和落盘等。 实施步骤(方案一:先迁生产,再迁消费) 以下是按照先迁移生产者,再迁移消费者的详细步骤来进行Kafka迁移的建议: (1)准备工作: 评估现有系统:了解现有系统的特点、数据源、数据流以及系统架构等方面。 设计新系统架构:根据迁移目标和现有系统评估结果,设计新的系统架构,确定Kafka的角色和位置。 确定迁移范围:确定需要迁移的数据范围和迁移的优先级。 (2)配置新Kafka集群: 根据新系统架构,配置和部署新的Kafka集群。 确保新集群的性能、可靠性和可扩展性满足业务需求。 (3)迁移生产者: 逐步切换现有系统中的生产者到新的Kafka集群。 修改生产者的配置文件或代码,将消息发送到新的Kafka集群。 监控生产者的消息发送情况,确保消息能够成功写入新的Kafka集群。 (4)测试和验证生产者迁移: 对迁移后的生产者进行测试和验证,确保消息的发送和写入操作正常。 监控和日志记录可以用于确认消息的可靠性和一致性。 (5)迁移消费者: 在确认生产者迁移成功后,逐步将现有系统中的消费者切换到新的Kafka集群。 修改消费者的配置文件或代码,指定新的Kafka集群地址。 确保消费者能够从新的Kafka集群中正确地读取消息。 (6)测试和验证消费者迁移: 对迁移后的消费者进行测试和验证,确保消息的读取和消费操作正常。 监控和日志记录可以用于确认消息的可靠性和一致性。 (7)监控和运维: 建立监控和运维机制,监控新的Kafka集群的运行状态和性能指标。 确保系统的稳定性和可靠性,及时处理异常情况。 以上步骤是一种常见的迁移策略,可以确保在迁移过程中保持数据的连续性和一致性。在每个迁移阶段完成后,都需要进行相应的测试和验证,以确保迁移的正确性和可靠性。具体的步骤可能会根据实际情况有所不同,建议根据具体业务需求和系统特点进行调整。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka业务迁移
      • 术语解释
        全量数据迁移 在全量数据迁移阶段,DTS会将源数据库的存量数据全部迁移到目标数据库。如果您在配置数据迁移任务时,仅选择了结构迁移和全量数据迁移,那么在迁移过程中,源库的新增数据不会被迁移至目标库。所以为保障数据一致性,迁移期间请勿在源库中写入新的数据。 增量数据迁移 在增量数据迁移阶段,DTS会将源库产生的增量数据实时同步至目标库。 此功能通常用于实现不停机迁移,即迁移源端数据库在全量数据迁移阶段发生的数据变更。 企业项目 企业项目权限是实现细粒度控制的基础。将云资源、企业成员按企业项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,通过授权用户组来限制用户使用企业项目内的云资源权限。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        术语解释
      • 什么是数据传输服务
        本页为您简要介绍什么是天翼云数据传输服务DTS。 TeleDB数据传输服务(Data Transmission Service,简称DTS)是由天翼云基于TeleDB v5.1.9版本孵化并演进而成的集数据迁移和数据实时同步于一体的数据传输服务。它作为数据流通的底座,能够帮助用户实现数据库不停业务快速稳定地迁移上云、构建数据实时同步通道实现数据库灾备/双活,保障业务数据高效、稳定地流通。 数据迁移 数据迁移是指在数据传输服务能够同时连通源数据库和目标数据库的情况下,只需要配置迁移的源、目标数据库实例及迁移对象即可完成整个数据迁移过程。数据迁移功能旨在帮助用户方便、快速地实现各种数据源之间的数据迁移,用户可通过EIP公网网络实现数据上云迁移、也可使用VPC网络实现天翼云内部跨实例数据迁移、数据库拆分扩容等业务场景。同时,数据迁移服务可实现不停机迁移,数据库不关机,业务不暂停,最大程度保障用户业务在迁移期间的可用性。 数据同步 数据同步是指在不同的系统之间,将数据通过同步技术从一个数据源拷贝到目标数据库,并保持目标库与源库数据的一致,实现关键业务的数据实时流动。数据同步功能旨在帮助用户实现两个数据源之间的数据实时同步。同步过程中可通过映射和条件过滤实现灵活同步。 基本特性 多数据源实时同步和迁移 支持MySQL>MySQL,PostgreSQL>PostgreSQL,SQL Server>SQL Server的实时数据同步和迁移。 支持DDS/MongoDB副本集>DDS/MongoDB副本集的数据迁移。 支持MySQL> PostgreSQL、MySQL>ClickHouse不同数据源之间的实时数据同步和迁移。 支持数据结构迁移、全量迁移、增量迁移,通过结构、全量、增量迁移可帮助用户将数据实时同步到目标端,实现业务平滑迁移。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        什么是数据传输服务
      • 创建对象存储迁移任务(1)
        参数 是否必填 参数类型 说明 示例 下级对象 sourceType 否 String 迁移源类型,默认为S3,①S3:AWS及S3适配;②OSS:阿里云OSS;③COS:腾讯云COS;④OBS:华为云OBS;⑤OOS:天翼云OOS;⑥ZOS:天翼云对象存储ZOS S3 sourceEndpoint 是 String 迁移资源池地址,支持输入IP或域名,以 sourceBucket 是 String 迁移源桶,输入限制不超过1024字符 bucketkpblz sourceAccessKey 是 String 迁移源资源池ak,输入限制不超过1024字符 7Hj9Kp2QXXXm5Nv3RfX sourceSecretKey 是 String 迁移源资源池sk,输入限制不超过1024字符 bL8yT4wXXXG6dS1xE9P sourceBucketType 否 String 源资源池迁移模,默认为Bucket。①Bucket:整桶迁移;②Folder:文件夹迁移;③Files:文件迁移;④Prefix:前缀迁移 Bucket migrateFolder 否 Array of Strings 指定源资源池迁移的文件夹列表,仅当sourceBucketType为Folder时有效,当前仅支持指定单个文件夹,单个文件夹名输入限制不超过1024字符 ["folder1"] migrateFiles 否 Array of Strings 指定源资源池迁移的文件名列表,仅当sourceBucketType为Files时有效,当前指定文件上限为100个,单个对象名输入限制不超过1024字符 ["files1","files2"] migratePrefix 否 Array of Strings 指定源资源池迁移的前缀列表,仅当sourceBucketType为Prefix时有效,当前只支持指定单个前缀,单个前缀名输入限制不超过1024字符 ["prefix1"]
        来自:
      • RocksDB到GeminiDB Redis的迁移
        本节主要介绍RocksDB到GeminiDB Redis的迁移方案。 RocksDB是FaceBook基于LevelDB开发的一个持久化KV单机数据库引擎,具有强大的顺序读写及随机写性能。相对于LevelDB,RocksDB做了许多优化,性能有了很大提升, 而且解决了LevelDB主动限制写的问题。作为一个数据库引擎,RocksDB没有设计成C/S网络结构,直接使用需要和服务部署在同一台服务器,对于服务的部署、使用有较大的限制。 GeminiDB Redis采用RocksDB作为存储引擎,兼容Redis协议具有丰富的数据类型,可以满足RocksDB的使用需求。同时GeminiDB Redis对RocksDB进行深度定制,实现秒级分裂弹性扩容,扩缩容无需搬迁数据,快速而平滑,为RocksDB业务转到Redis生态提供了便利。 迁移原理 使用自研迁移工具rocksdbport,和RocksDB部署在相同机器上,准备好配置文件,启动迁移即可自动完成全量与增量的迁移。 全量迁移对RocksDB数据进行快照,然后扫描整个数据库,将数据打包成GeminiDB Redis识别的格式,发送到GeminiDB Redis,具有很高的迁移效率。 增量迁移解析RocksDB的wal文件,将RocksDB的操作解析出来,然后对其中的key进行分片,多线程进行发送。 使用须知 迁移工具需要部署在源端,对性能有一定消耗,可通过修改配置文件进行一定的控制。 迁移过程读取RocksDB的源数据文件,只读操作,理论上不会有数据受损风险。 迁移过程不需要停服。 若迁移过程出现故障,需要清理GeminiDB Redis实例,重新启动迁移。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        数据迁移
        RocksDB到GeminiDB Redis的迁移
      • 使用RedisShake工具迁移自建Redis Cluster集群
        本文介绍使用RedisShake工具迁移自建Redis Cluster集群 RedisShake是一个开源的Redis迁移工具,可以用于在线迁移和离线迁移(通过备份文件导入)。当你需要迁移部署在其他云厂商上的 Redis集群数据时,如果无法进行在线迁移,你可以选择离线迁移的方式。 在线迁移 在线迁移主要适用于自建Redis Cluster集群迁移到DCS Redis的场景,且两端集群实例能够网络连通,或者有一台中转服务器能够连通两端集群实例。 在线迁移有多种模式,如果SYNC、PSYNC命令未被禁用,建议采用syncreader模式,否则可使用scanreader模式,具体见RedisShake官方社区。 1、在DCS控制台创建Redis实例。 注意 新创建的Redis实例容量不能小于源端Redis实例的实际使用容量。 2、准备一台云服务器,并安装RedisShake。 RedisShake需既能访问源端缓存实例,也能访问目标端DCS 缓存,需要绑定弹性公网IP 3、获取源集群和目标集群的ip地址。 如果源实例或者目标实例是proxy模式架构,则获取proxy ip即可。 4、编辑RedisShake配置文件。 编辑redisshake工具配置文件shake.toml,补充迁移双方信息,及迁移模式。 [syncreader] cluster false set to true if source is a redis cluster address "ip:port" when cluster is true, set address to one of the cluster node username "" keep empty if not using ACL password "" keep empty if no authentication is required tls false syncrdb true set to false if you don't want to sync rdb syncaof true
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        自建Redis迁移到DCS
        使用RedisShake工具迁移自建Redis Cluster集群
      • 退订
        本章节主要介绍翼MapReduce服务的退订操作。 按需计费 按需购买的集群无需退订,直接删除即可。 请登录天翼云官网,进入“控制中心”,选择“翼MapReduce”,进入集群列表,即可对您的集群进行删除操作。 删除前建议您做好数据备份。 1.登录天翼云官网,进入控制中心; 2.进入控制中心,选择资源池,选择“翼MapReduce”; 3.进入集群列表,找到需要删除的集群,选择资源信息,点击删除。 包周期计费 包年包月购买的集群,可参考以上步骤进入集群列表,在需要退订的包年包月集群对应的“操作”列中,单击“退订”即可。
        来自:
        帮助文档
        翼MapReduce
        计费说明
        退订
      • LevelDB到GeminiDB Redis的迁移
        操作步骤 如需进行Redis到GeminiDB Redis的迁移,您可以在管理控制台右上角,选择“工单 > 新建工单”,联系技术支持进行处理。 迁移性能参考 环境:源端LevelDB和leveldbport部署在4U16GB的弹性云服务器上,目标端为2U8GB,3节点的GeminiDB Redis实例。 全量迁移:预置10GB数据,迁移速度约8MB/s。 增量迁移:设置value值大小为1KB,迁移速度约为7000qps。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        数据迁移
        LevelDB到GeminiDB Redis的迁移
      • 服务器迁移服务模块
        本节为您介绍服务器迁移服务功能特性。 数据"0"丢失 在数据传输过程中,服务器迁移服务通过数据校验确保数据的一致性,保障数据在迁移过程中不发生丢失。同时,通过数据稽核功能,用户可以准确检验两端数据的异同,实现真正意义上的数据"0"丢失。 传输控制进程分离 服务器迁移服务将控制流量与监控流量区分,有效避免数据传输过程中网络中断导致任务失败的情况。监控流量将源机和目标机的监控数据通过单独传输上报至平台,让用户可以查看传输进度、使用率以及迁移状态。 批量绑定 服务器迁移服务支持通过Excel模板批量导入源机和目标机的对应关系,避免重复操作,减少用户手动配置的工作量,提高操作的便捷性。 自定义分区 用户可以在服务器迁移服务上对目标机进行灵活的扩缩容分区操作。根据当前的资源使用情况,可以自由调整资源,提高资源利用率。 断点续传 服务器迁移服务支持断网续传和重启续传功能,有效避免用户因网络波动或误操作Agent等情况导致的任务中断,保障任务的稳定性。 代理迁移 服务器迁移服务提供代理迁移功能,通过代理对网闸隔离后的内网进行跳转转发,无需直接打通内网与互联网,从而保障了迁移过程的安全性,满足相关安全需求。
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        功能特性
        服务器迁移服务模块
      • 告警历史
        本章节主要介绍翼MR Manager的告警历史特性。 进入到翼MR Manager以后,点击菜单“监控与告警 > 告警历史”,进入告警历史页面。如图所示: 页面上方为查询区域,各种查询条件进行组合查询。 支持查询集群服务级、角色实例级、主机级的告警信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        监控与告警
        告警历史
      • 数据迁移失败问题排查
        本节主要介绍使用DCS控制台进行数据迁移时迁移失败的问题排查和解决。 在使用控制台进行数据迁移时,如果出现迁移方案选择错误、在线迁移源Redis没有放通SYNC和PSYNC命令、源Redis和目标Redis网络不连通等问题,都会导致迁移失败。 排查步骤 步骤 1 查看迁移日志。 出现如下错误,表示迁移任务底层资源不足,需要联系技术支持处理。 create migration ecs failed, flavor 出现如下错误,表示在线迁移时,源Redis没有放通SYNC和PSYNC命令,需要联系技术支持放通命令。 source redis unsupported command: psync 步骤 2 检查迁移方案。Redis实例间迁移,高版本不支持迁移到低版本。 步骤 3 检查源Redis是否放通SYNC和PSYNC命令,迁移任务底层资源与源Redis、目标Redis网络是否连通。 如果是在线迁移,才涉及该操作。 在线迁移,必须满足源Redis和目标Redis的网络相通、源Redis已放通SYNC和PSYNC命令这两个前提,否则,会迁移失败。 网络 检查DCS的源Redis、目标Redis、迁移任务所需虚拟机是否在同一个VPC,如果不在同一个VPC,则需要建立VPC对等连接,打通网络。关于创建和使用VPC对等连接,请参考《虚拟私有云用户指南》的“对等连接”文档说明。 如果是同一个VPC,则检查安全组(Redis 3.0实例)或白名单(Redis 4.0/5.0/6.0实例)是否放通端口和IP,确保网络是连通的; 源Redis和目标Redis必须允许迁移任务底层虚拟机访问。 源Redis和目标Redis属于不同的云厂商时,需使用云专线服务打通网络。 命令 默认情况下,一般云厂商都是禁用了SYNC和PSYNC命令,如果要放通,需要联系云厂商运维人员放通命令。 DCS内部进行迁移: 自建Redis迁移至DCS,默认没有禁用SYNC和PSYNC命令; DCS服务之间进行迁移,如果是同一帐号相同Region进行在线迁移,在执行迁移时,会自动放通SYNC和PSYNC命令; 如果是不同Region或相同Region不同帐号进行在线迁移,不会自动放通SYNC和PSYNC命令,无法使用控制台上的在线迁移功能。推荐使用备份文件导入方式迁移。 其他云厂商迁移到DCS服务: 一般云厂商都是禁用了SYNC和PSYNC命令,如果使用在线迁移功能,需要联系源端的云厂商运维人员放通此命令。如果使用离线迁移,推荐使用备份文件导入的方式。 如果不需要增量迁移,可以参考使用Redisshake工具在线全量迁移其他云厂商Redis进行全量迁移,该方式不依赖于SYNC和PSYNC。 步骤 4 检查源Redis是否存在大Key。 如果源Redis存在大key,建议将大key打散成多个小key后再迁移。 步骤 5 检查目标Redis的规格是否大于迁移数据大小、是否有其他任务在执行。 如果目标Redis的实例规格小于迁移数据大小,迁移过程中,内存被占满,会导致迁移失败。 如果目标Redis存在正在执行的主备切换,建议联系技术支持关闭主备切换后,重新执行数据迁移。待迁移完成后,重新开启主备切换。 步骤 6 检查迁移操作是否正确。 检查填写的IP地址、实例密码是否正确。 步骤 7 排查白名单。 步骤 8 如果无法解决,请联系技术支持。
        来自:
        帮助文档
        分布式缓存服务Redis版
        故障排除
        数据迁移失败问题排查
      • 运行Kafka作业
        本章节主要介绍翼MapReduce运行kafka作业。 用户可将自己开发的程序提交到翼MR中,执行程序并获取结果。本章节教您在翼MR集群后台如何提交一个新的kafka作业。 通过后台提交作业 1. 登录翼MR管理控制台。 2. 选择“我的集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3. 在“节点管理”页选中单击Master节点,选择要进入的Master节点。 4. 单击该节点右侧的“远程连接”。 5. 根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 6. 创建kafka的topic。 plaintext /usr/local/kafka/bin/kafkatopics.sh zookeeper :2181/kafka topic create 7. 当前集群默认开启Kerberos认证,执行以下命令添加认证信息。 plaintext export KAFKAOPTS"Djava.security.krb5.conf/etc/krb5.conf Djava.security.auth.login.config/usr/local/kafka/config/kafkajaas.conf" 8. 向topic中写入消息。 plaintext /usr/local/kafka/bin/kafkaconsoleproducer.sh brokerlist :9092 topic producer.config /usr/local/kafka/config/producer.properties 9. 消费topic中的消息。 plaintext /usr/local/kafka/bin/kafkaconsoleconsumer.sh bootstrapserver :9092 topic consumer.config /usr/local/kafka/config/consumer.properties frombeginning maxmessages 5 注意 frombeginning:只能消费未被消费的历史数据,已消费数据不会出现。 maxmessages:最多消费多少条数据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Kafka作业
      • 管理迁移任务
        对迁移任务进行失败重试 您可以在任务列表中,对“ 任务结束 存在失败对象 ”状态的任务,执行重试操作,该操作将再次对任务中记录的失败对象尝试迁移。 注意 仅“任务结束 存在失败对象”状态的迁移任务,可以重试。 重试迁移任务,仅会迁移任务记录的失败对象列表中的对象,且任务详情中的任务进度信息会被重试的迁移任务所刷新。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        迁移任务教程
        管理迁移任务
      • 数据迁移类
        DTS如何迁移MySQL中的MyISAM表到天翼云RDS for MySQL? 如果源库是天翼云RDS for MYSQL,则默认的存储引擎为InnoDB,不存在需要迁移MyISAM表的情况。 如果源库是他云MySQL产品或用户本地自建MySQL,此时如果源端存在待迁移的MyISAM表,根据目标端版本不同进行如下操作: 目标端是MySQL 5.7,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行迁移。 目标端是MySQL 8.0,DTS会自动将存储引擎MyISAM转换成InnoDB。 如何将MySQL低版本数据迁移至MySQL8.0? 当前DTS在实施MySQL的数据迁移时,支持从低版本迁移至高版本的8.0。具体说来就是: MySQL 5.6部分版本 > MySQL 8.0 MySQL 5.7 > MySQL 8.0 另外,由于DTS支持MySQL的表、索引、存储过程、视图、函数、事件、触发器等的迁移,所以在实施MySQL 5.6/5.7数据迁移至MySQL 8.0时,用户需要做一些额外的确认工作,具体如下: 待迁移对象中是否有被移除的函数? 在MySQL8.0中,有一些原本存在于低版本中的内置函数已经被废除,具体可参照如下MySQL官方链接。 < 所以在迁移一些复合对象时,请确保源对象中没有引用一些已经被废除的函数。如果有,待DTS迁移完成之后,用户需自行修改目标端的已迁移对象,做一些适配。具体如下表: 名称 作用 是否已废除 [DECODE()](
        来自:
        帮助文档
        数据传输服务DTS
        常见问题
        数据迁移类
      • Windows任务配置
        本节为您介绍云迁移服务CMS服务器迁移中Windows迁移任务相关配置。 迁移盘符 您可以在此设置所需“迁移盘符”及“目的盘符”。 说明 Windows迁移任务,盘符配置必须对C盘进行配置。当有多物理盘符时,目标机重新启动后要于磁盘管理中进行脱机磁盘联机,手动调整驱动号与源机保持一致。 自定义分区 1. 在“配置迁移任务”界面,单击“重置目标分区”进行分区。 2. 若磁盘分区类型是MBR,则要选择主分区的分区类型,分区类型为主分区则输入主分区大小和驱动器号。 说明 系统盘符要勾选系统分区选项,后续其余盘符请勿重复勾选系统盘符选项。 3. 完成配置后,单击“确认分区”。 说明 指定了系统分区才可以对目标机分区,如果驱动器号或者分区大小不合规,则无法执行分区操作。 开始迁移 1. 单击“开始迁移”,执行迁移任务。 2. 在开始迁移确认提示框单击“确定”。 3. 系统进入迁移任务配置中的状态。 4. 稍等片刻出现任务追踪面板,即可在此观察迁移任务进度。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        迁移任务配置与开始全量迁移
        Windows任务配置
      • 如何创建迁移计划任务
        本文为您介绍云迁移服务CMS如何创建迁移计划任务。 介绍说明 当您使用云迁移服务CMS平台完成迁移组的创建,下一步需对创建迁移组资源进行迁移时,您需先创建迁移计划,迁移计划的创建包含迁移组的选择,迁移优先级的展示等。 操作步骤 1. 运行云迁移服务CMS平台,进入[迁移计划]界面,点击【迁移计划创建】按钮。 2. 进入迁移计划基本信息填写。 3. 在[资源选取]界面现在迁移组已有的资源,点击【下一步】按钮。 4. 进入[已选资源确认]界面完成资源的确认,点击【资源确认】,完成迁移计划的创建。
        来自:
        帮助文档
        云迁移服务CMS
        最佳实践
        云迁移服务模块
        如何创建迁移计划任务
      • 云迁移服务使用流程
        本节为您介绍云迁移服务使用流程。 云迁移使用主要分为三步骤,迁移评估、资源规划、迁移管理。 迁移评估涉及迁移系统、成本评估、资源管理、拓扑分析整理关键流程如图所示: 云迁移资源规划是指在云迁移项目开始之前进行的一项综合性资源规划工作,它旨在帮助企业合理地分配和利用资源,辅助降低迁移使用门槛。它主要涵盖了以下几个方面: 创建迁移组、迁移计划、资源匹配、资源创建整理流程如图所示: 云迁移迁移管理是一项重要的工作内容,旨在帮助企业顺利地完成迁移项目。它主要涵盖了以下几个方面: 工具管理、调度管理、进度大盘、迁移报告整理流程如图所示:
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        云迁移服务模块
        云迁移服务使用流程
      • 续传迁移任务
        本节主要介绍续传迁移任务 迁移中可能因外部因素导致迁移暂时故障,用户根据迁移日志信息解决问题后,可以通过续传功能继续迁移,常见场景如存储空间不足。 对于以下状态的任务,可以通过续传功能继续迁移任务。 迁移失败 已暂停 说明 如果因为非网络原因导致迁移失败,系统默认进行三次自动续传,若三次续传后仍无法恢复,可手动进行续传。 前提条件 已登录数据复制服务控制台。 已成功创建迁移任务,并且迁移失败。 方式一 在“实时迁移管理”页面任务列表中,选择需要启动的任务,单击操作列“续传”,重新提交迁移任务。 方式二 步骤 1 在“实时迁移管理”页面任务列表中,选择需要启动的任务,单击任务名称。 步骤 2 跳转至“基本信息”页签,切换至“迁移进度”页签,单击左上角“续传”,重新提交迁移任务。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        续传迁移任务
      • 迁移计划操作
        本节为您介绍云迁移服务CMS迁移计划操作相关内容。 1. 云迁移服务CMS 提供迁移计划名称与迁移计划资源的删除功能,您可以在 [ 迁移计划 ] 界面,点击【迁移计划名称】按钮,进行修改,如图所示。 2. 选中需要移除的迁移计划任务,点击【删除】按钮,对选中计划任务进行删除,如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        资源规划
        迁移计划
        迁移计划操作
      • PostgreSQL迁移/同步到PostgreSQL
        2、目标库连通性检查 失败原因 处理建议 :: 目标数据库账号或密码不正确。 输入正确的数据库账号和密码后重新执行预检查。 目标数据库所在网络或服务器设置了防火墙。 查看数据库所在的网络防火墙是否限制了DTS的IP地址段,如果有,关闭防火墙或者将DTS的IP地址加入防火墙白名单中。 目标库迁移账号登录权限不足。 登录目标库,为迁移账号添加相应的远程访问权限。 网络互通问题。 联系数据库所在机器管理人员和DTS部署机器管理人员排查问题。 数据库对象检查 1、源数据库的模式名表名是否合法 失败原因 处理建议 :: 待迁移对象中存在非法的字符。 更改含非法字符的待迁移对象名称。 取消含非法字符的待迁移对象。 2、同名对象存在性检查 失败原因 处理建议 :: 目标库存在与待迁移对象同名的对象。 1. 取消同名对象的迁移。 2. 将同名对象进行名称映射。 3. 删除目标库存在的同名对象。 3、约束完整性检查 失败原因 处理建议 :: 待迁移子表依赖的父表没有被选择为迁移对象。 1. 在迁移对象中加入相应父表。 2. 在迁移对象中移除相应子表。 3. 删除相关外键依赖。
        来自:
        帮助文档
        数据传输服务DTS
        故障排除
        预检查不通过修复方法
        PostgreSQL迁移/同步到PostgreSQL
      • 使用Reindex迁移集群
        本文为您介绍使用Reindex方式迁移集群的适用场景和使用方法。 通过搜索引擎内部支持的Reindex指令进行数据迁移,也是一种常见的云搜索数据迁移场景。 Reindex方式适用场景 源云搜索实例和目标搜索实例网络互通。 无需引入额外外部工具,仅仅依靠API即可实现。 对迁移速度没有过高要求。 可以按条件筛选进行数据迁移,查询筛选语句、painless脚本全支持。 适配性 Elasticsearch版本间,除了Elasticsearch8.X向Elasticsearch7.X迁移,其余均支持。 Elasticsearch数据往OpenSearch2.19.1版本迁移,全部支持。 待迁移集群版本 Elasticsearch7.10.2 OpenSearch2.19.1 Elasticsearch6.x √ √ Elasticsearch7.x √ √ Elasticsearch8.x × √ 示例说明 我们以数据从Elasticsearch7.10.2往OpenSearch2.19.2迁移为例,将geonames索引迁移。 1. 在配置管理页面配置Reindex索引迁移的远程访问地址白名单,具体可参考修改配置文件默认参数,改动如下: plaintext reindex.remote.whitelist: ["IPsource:9200"] 2. 在目标实例创建index(如果没有额外的分片和mapping的设置,可以跳过)。 3. 在目标实例上进行Reindex操作: plaintext POST /reindex?waitforcompletionfalse { "source": { "remote": { "host": " "username": "{username}", "password": "{password}" }, "index": "geonames", "size": 10000 }, "dest": { "index": "geonames" } }
        来自:
        帮助文档
        云搜索服务
        最佳实践
        迁移集群
        使用Reindex迁移集群
      • 最佳实践概述
        本章节会介绍自建MySQL迁移场景。 场景描述 概述:自建MySQL迁移上云场景本章节采用了数据复制服务产品(简称DRS),在DRS能够同时连通源数据库和目标数据库的情况下,只需要配置迁移的源、目标数据库实例及迁移对象即可自动完成整个数据迁移过程。迁移支持多种网络迁移方式,如:公网网络、VPC网络、VPN网络和专线网络。通过多种网络链路,可快速实现跨云平台数据库迁移、云下数据库迁移上云或云上跨区域的数据库迁移等多种业务场景迁移。 典型行业:所有使用MySQL数据库的行业。 适配场景:适用于实时迁移场景。 技术架构图 本实践方案基于如下图所示的技术架构和主要流程。 方案优势 操作便捷、简单,实现数据库的迁移和同步“人人都会”。传统场景中,需要专业的技术背景,步骤复杂,技术门槛比较高。 仅需分钟级就能搭建完成迁移任务,让整个环境搭建“高效快速”。传统场景下需要人工部署,短则几天,长则上周或上月。 通过服务化迁移,免去了传统的DBA人力成本和硬件成本,并允许按需购买,实现了服务“人人都能用上”。 通过迁移进度、迁移日志、迁移数据等多项指标的查询和对比,大大提升了迁移任务的成功率,实现数据库迁移和同步“人人都能做好”。
        来自:
        帮助文档
        关系数据库MySQL版
        最佳实践
        自建MySQL迁移上云
        最佳实践概述
      • 什么是Prometheus监控
        天翼云 Prometheus 监控服务对接开源 Prometheus 生态,提供多种开箱即用的预置监控大盘,且提供全面托管的 Prometheus 服务。 什么是Prometheus实例 Prometheus实例是天翼云可观测监控服务中用于管理数据采集、存储与分析的核心逻辑单元,包含预配置的数据采集规则、时序数据库、可视化监控面板及告警策略等功能模块。 产品优势 集成便捷:提供一站式解决方案,显著降低可观测系统的部署与运维复杂度。 成本可控:相较自建方案,天翼云可观测Prometheus监控服务具备更优的性价比优势。 生态融合:深度集成天翼云容器服务,实现无缝对接。 专业护航:享有天翼云官方提供的专业技术支持体系。 注意 目前Prometheus监控服务仅于华东1、华南2、西南1上线。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        产品概述
        什么是Prometheus监控
      • 1
      • ...
      • 14
      • 15
      • 16
      • 17
      • 18
      • ...
      • 105
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      模型推理服务

      推荐文档

      卸载

      管理

      产品功能

      价格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号