活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      HBASE数据库_相关内容
      • 删除模式
        本文为您介绍如何删除模式。 您可执行如下操作删除模式。 teledb drop schema teledbschemaowner; DROP SCHEMA 当模式中存在对象时,则会删除失败,提示如下。 teledb create table teledbschemanew.test(id int); CREATE TABLE teledb drop schema teledbschemanew; ERROR: cannot drop schema teledbschemanew because other objects depend on it DETAIL: table teledbschemanew.test depends on schema teledbschemanew HINT: Use DROP ... CASCADE to drop the dependent objects too. 您可参考如下操作强制删除,会将模式中的对象也级联删除。 teledb drop schema teledbschemanew cascade; NOTICE: drop cascades to table teledbschemanew.test DROP SCHEMA
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        模式管理
        删除模式
      • 实例主机手动创建了teledbx用户导致开通实例失败
        本文为您介绍实例主机手动创建了teledbx用户导致开通实例失败的问题原因和解决方案。 问题现象 创建实例开通失败。 原因分析 经过查看错误日志,发现其手动创建teledbx用户。由于在开通创建实例时,系统会自动创建teledbx用户,无需手动创建。 解决方案 1. 执行如下命令删除实例主机teledbx用户。 userdel teledbx 2. 在管控台中选择实例管理> 工单管理 ,单击所创建实例行所在的操作 列的重新施工即可。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        实例主机手动创建了teledbx用户导致开通实例失败
      • TeleDB助力广州12345政府热线平稳落地
        广州12345政府服务热线,业务的核心TeleDB服务器部署内网,敏感数据部署在这个核心TeleDB实例中,并涉及到130个部门,8千余个分类,4万余条知识点。该系统要求系统具备高安全性,目前存储了6000+加密表,同时要求通信链路加密,数据脱敏,访问白名单,TeleDB的多级安全策略在该业务系统有了完美的落地。该系统的核心系统结构如下:
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        典型案例分享
        TeleDB助力广州12345政府热线平稳落地
      • 实例开通时,勾选备份机导致开通实例失败
        本文为您介绍实例开通时,勾选备份机导致开通实例失败的问题现象、原因和解决方案。 问题现象 提交工单后,在工单管理中显示实例施工失败。 原因分析 勾选备份机导致开通实例失败。 解决方案 去勾选备份机,重新提交工单。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        实例开通时,勾选备份机导致开通实例失败
      • 提交工单显示系统错误
        当提交工单显示系统错误时,您可以参考本文,查看问题现象、问题原因和解决方案。 问题现象 提交工单显示系统错误。 查看日志发现是sql插入有问题,instmanager的vip列插入失败。 原因分析 开通实例使用到了8个vip,给的varchar字符窜长度不够。 解决方案 执行如下命令增加vip列的varchar长度,将其修改为255。 use dcp desc instmanager alter table instmanager modify column vip varchar(255);
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        提交工单显示系统错误
      • 添加主机时,硬件联通及测试主机失败
        添加主机时,如果硬件联通及测试主机失败,则您需要添加安全组,放通监控插件端口。 问题现象 添加主机时,测试连通及硬件检测失败。 原因分析 监控插件端口未放通。 解决方案 添加安全组,放通端口。出现如下图所示,则表示执行成功。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        添加主机时,硬件联通及测试主机失败
      • 数据管理服务安装部署
        安装后校验 1. 检查容器状态:docker ps grep E 'dmsdas' 2. 检查启动日志:docker logs f 卸载服务 1. 查看容器ID,docker ps grep E 'dmsdas' 2. 停止容器:docker stop 3. 移除容器:docker rm 4. 查看镜像ID:docker images grep E 'dmsdas' 5. 移除镜像:docker rmi
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        数据管理服务安装部署
      • 开通实例的teledbx版本信息不对
        当导入的teledbx内核版本与实例开通的版本选择不一致时,您可以参考本文查看问题现象、问题原因和解决方案。 问题现象 导入的teledbx内核版本与实例开通的版本选择不一致。 原因分析 导入配置库的sql语句数据错误,dcp的README.md文件是6.11版本的规格。 解决方案 修改dcp库的prodtemplate表数据。 mysql> use dcp mysql> select id ,prodversion from prodtemplate; ++ id prodversion ++ 8 5.7 9 6.11 10 6.11 ++ 3 rows in set (0.00 sec) mysql> update prodtemplate set prodversion'6.13' where id9; Query OK, 1 row affected (0.00 sec) Rows matched: 1 Changed: 1 Warnings: 0 mysql> update prodtemplate set prodversion'6.13' where id10; Query OK, 1 row affected (0.01 sec) Rows matched: 1 Changed: 1 Warnings: 0 mysql> select id ,prodversion from prodtemplate; ++ id prodversion ++ 8 5.7 9 6.13 10 6.13 ++ 3 rows in set (0.00 sec)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        常见问题
        开通实例的teledbx版本信息不对
      • 从ClickHouse 自建集群迁移数据(方案二)
        迁移方案概述 迁移方案是通过源集群的zookeeper 做副本数据同步,架构如下: 前提条件: 要求源、目标集群在同一个网络,源、目标集群的分片数是相同的,另外建议源、目标集群的ck内核版本也一致,避免不同版本使用到的zstd 版本不一致导致merge出错 迁移条件 & 情况: 目标集群必须跟源集群具备相同的分片数,目标集群跟源集群网络相通; 只支持依赖zk的副本表; partitiong同步过程,源集群可正常读写,迁移过程源集群能正常读,但是不能写; 数据同步和迁移过程,不会删除源集群的数据; 数据同步过程源集群下的数据(本地数据 + cos数据)都会同步到目标集群下,因此目标集群下的容量要足够。 迁移步骤: 整体的迁移环节可概括为:创建临时表 (开始同步数据)和正式表 》修改临时表引擎为 MergeTree — 》从临时表把数据转移到正式表 》删除临时表 具体步骤如下: 1、在目标集群的各个分片选择一个节点,加入到tmpcluster里头去(metrika.xml文件中新增tmpcluster),修改目标集群的config.xml文件,把源集群的zk信息配置进来,如果有多个,那分别加入 ip1 2181 ip2 2181 ip3 2181 60000 30000 2、在目标集群上创建临时的副本表,绑定源集群的zk,以ReplicatedMergeTree为例子: CREATE TABLE tablenametmp on cluster tmpcluster ( ... ) ENGINE ReplicatedMergeTree('zookeeper2:path', '{replica}') ... 备注说明: 创建的临时副本表使用临时表名,在正式表后面加tmp。 创建的临时副本表使用的ZooKeeper路径和源端搬迁表的ZooKeeper路径需保持一致。 创建的临时副本表的表结构需和源端搬迁表保持一致。 3、创建完临时副本表之后,集群会自动通过源zk做part同步到目标集群的副本。期间不用做任何处理,可以准备下一步骤工作 (这个过程不要对临时表做任何数据分区操作,因为操作临时表分区就等于操作源集群对应正式表) 4、在目标集群创建正式名字的 副本表,采用默认zookeeper(可直接通过on cluster defaultcluster去创建) 5、同步完成之后,检查源集群和目标集群,各个表数据分布情况,数据准确性校验(查询part数,以及count总数是否匹配,校验数据准确性时最好做到源集群停写) 6、检查无误之后,在目标集群metadata 目录下,修改所有临时表的sql,把Engine均改成MergeTree (这步是为了迁移过程影响到源集群,保证源集群的数据可读),修改完后重启集群 —— 有现成脚本 7、执行DETACH 命令对临时表中的每个partition DETACH,然后登入目标集群,把临时表下detached目录的所有part mv 到对应的目标表的detached 目录下 —— 如果分区多,可用脚本完成,有现成脚本 例如:default 下lineorder表,可以执行 mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/ detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 例如:default 下lineordertmp临时表,分区有'1992','1993','1994','1995','1996' 第一步:在studio上执行(也可以通过脚本去完成): ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1992'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1993'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1994'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1995'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1996'; 第二步:登入到目标集群在各个节点上,执行: mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 8、执行attach 命令,把目标表下detached的part加载到表内 —— 如果分区多,可用脚本完成,有现成脚本(可找作者提供) 例如:default 下lineorder表,可以执行 alter table default.lineorder attach partition 'partitionname'; 依次把所有的partition 加载到正式表 9、所有的表迁移完成之后,删除临时表,再删除config.xml文件中的 auxiliaryzookeepers配置; 说明: 数据副本同步过程因为某种原因导致副本服务中断(可能是网络、bug、人为手工停止),再次重启后支持断点续传,不会影响源数据同步传输。 操作过程会涉及到多个partition的 DETACH和 attach命令,同时还需要登入到目标节点执行mv 操作,为了简化工作提高效率,减少过多人为操作而导致的失误,建议 通过批量工具(天翼云ClickHouse提供) + 脚本方式执行(找作者提供) 批量工具:批量分发文件到目标集群各个节点,批量在目标集群各个节点执行命令脚本等 参考脚本:查询一个表下的所有partition 列表,然后执行 DETACH命令, mv 命令 和最后的 attach命令 注意: 在添加临时表之后,源集群表的part就会自动通过zk做part复制,因为数据量很大,建议分批创建临时副本表,以免对源zk造成负载过高,从而影响业务 在临时表数据同步的过程中,一定不要对临时表做任何数据或是分区操作,操作临时表就等于操作源集群对应的正式表 在临时表数据同步过程,不能有ddl变化 方案优点:可支持对巨量副本表(几百个以上)的数据迁移,数据同步过程通过zk 做到后台自动同步,无需干预;同时支持对cos 数据的迁移; 不足:只能迁移ReplicatedMergeTree 引擎表,其它表不支持这种方案。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从ClickHouse 自建集群迁移数据(方案二)
      • 快速定位查询存储倾斜的表
        场景三:查询某个表的数据倾斜情况 执行以下SQL查询某个表的数据倾斜情况,其中tablename替换为实际的表名。 SELECT a.count,b.nodename FROM (SELECT count() AS count,xcnodeid FROM tablename GROUP BY xcnodeid) a, pgxcnode b WHERE a.xcnodeidb.nodeid ORDER BY a.count desc; 返回如下类似信息。若各DN上数据分布差小于10%,表明数据分布均衡。若大于10%,则表示数据出现倾斜。 gaussdb>SELECT a.count,b.nodename FROM (select count() as count,xcnodeid FROM staffs GROUP BY xcnodeid) a, pgxcnode b WHERE a.xcnodeidb.nodeid ORDER BY a.count desc; count nodename + 11010 datanode4 10000 datanode3 12001 datanode2 8995 datanode1 10000 datanode5 7999 datanode6 9995 datanode7 10000 datanode8 (8 rows)
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        数据库管理
        数据倾斜查询优秀实践
        快速定位查询存储倾斜的表
      • 导入过程存储倾斜即时检测
        本章节主要介绍导入过程存储倾斜即时检测的最佳实践。 导入过程中对DN导入行数进行统计,导入完成后计算倾斜率,超过一定阈值时,立即进行告警。倾斜率通过(DN导入行数最大值DN导入行数最小值)/导入总行数计算。目前,只支持INSERT和COPY导入。 说明 必须设置enablestreamoperatoron,确保计划下发到DN,DN一次性返回导入行数,从而可以在CN计算倾斜率。 使用方法 1.设置参数(表倾斜告警阈值tableskewnesswarningthreshold和表倾斜告警最小行数tableskewnesswarningrows); −表倾斜告警阈值取值范围0~1,默认值为1,即关闭状态,取其他值时为开启状态。 −表倾斜告警最小行数取值范围0~2147483647,默认值为100,000。当导入总行数超过该值与导入DN数之积时,才可能触发告警,从而不会在小数据量导入的场景进行无意义的告警。 show tableskewnesswarningthreshold; set tableskewnesswarningthreshold xxx; show tableskewnesswarningrows; set tableskewnesswarningrows xxx; 2.执行导入,使用INSERT或者COPY; 3.发现并处理告警,告警信息包括表名、最小行数、最大行数、总行数、平均行数、倾斜率,以及提示信息(检查数据分布或者修改参数)。 WARNING: Skewness occurs, table name: xxx, min value: xxx, max value: xxx, sum value: xxx, avg value: xxx, skew ratio: xxx HINT: Please check data distribution or modify warning threshold
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        数据库管理
        数据倾斜查询优秀实践
        导入过程存储倾斜即时检测
      • 编辑同步任务
        本节主要介绍编辑同步任务 数据复制服务支持编辑实时同步任务的配置信息,包括源库信息、目标库信息。创建实例后,对于如下状态的任务,您可再次编辑并提交同步任务。 创建中 配置 前提条件 已登录数据复制服务控制台。 方式一 步骤 1 在“实时同步管理”页面的任务列表中,选择要修改的任务,单击操作列“编辑”按钮。 步骤 2 进入“源库及目标库”页面,填写源库和目标库信息,单击“下一步”。 步骤 3 在“设定同步”页面,选择编辑同步对象,单击“下一步”。 步骤 4 在“预检查”页面,进行同步任务预校验,校验是否可进行实时同步。 步骤 5 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 步骤 6 同步任务提交后,您可在“实时同步管理”页面,查看并管理自己的任务。 方式二 步骤 1 在“实时同步管理”界面,选择指定同步任务,单击任务名称。 步骤 2 单击“进入”,进入“源库及目标库”页面。 步骤 3 执行步骤2到步骤6。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        任务生命周期
        编辑同步任务
      • 修改任务信息
        本节主要介绍修改任务信息 灾备任务创建成功后,支持对部分任务信息进行修改,以方便区分和识别灾备任务。 支持可修改的任务信息如下: 任务名称 描述 任务启动时间 前提条件 已登录数据复制服务控制台。 操作步骤 步骤 1 在“实时灾备管理”页面,选择指定的灾备任务,单击任务名称。 步骤 2 进入“基本信息”页签,在“任务信息”模块下,选择需要修改的任务信息。 对于任务名称、描述,可以单击,进行修改。 单击,提交修改。 单击,取消修改。 表 实时灾备任务信息 任务信息 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含!<>&'"特殊字符。 对于任务启动时间,当灾备任务为“等待启动”状态时,才可以进行修改。 需要在“任务信息”模块下的“计划启动时间”处,单击“修改”,选择指定时间,单击“确定”即可。 步骤 3 修改完成后,可在“基本信息”页签下查看修改结果。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时灾备
        任务生命周期
        修改任务信息
      • 查看迁移日志
        本节主要介绍查看迁移日志 迁移日志记录了数据迁移过程中的信息,包含告警、错误和提示等类型的信息。迁移过程中,可以通过查看迁移日志信息,帮助您分析系统中存在的问题。 前提条件 已登录数据复制服务控制台。 已成功创建迁移任务。 操作步骤 步骤 1 在“实时迁移管理”界面,选中指定迁移任务,单击任务名称。 步骤 2 在“迁移日志”页签,查看当前迁移任务的日志,可以根据“级别”筛选查看内容。 您可查看到日志对应的时间,级别和描述。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        查看迁移日志
      • 查看灾备数据
        本节主要介绍查看灾备数据 灾备数据记录了灾备任务完成的记录,您可以通过该功能,了解灾备的完整性。 数据复制服务支持通过管理控制台查看灾备数据的初始化进度及数据健康报告。 前提条件 已登录数据复制服务管理控制台。 已成功创建数据灾备任务。 操作步骤 说明 任务列表中,仅展示当前登录用户所创建的全部任务,同一租户下的不同用户之间的任务不可见。 步骤 1 在“实时灾备管理”页面,选择指定的灾备任务,单击任务名称。 步骤 2 页面跳转至“基本信息”页签,单击“灾备数据”页签。 初始化进度 仅展示了初次创建灾备环境时,历史数据导入的进度信息,帮助用户了解灾备环境创建进度,完成历史数据导入后,意味着初始化已完成,该模块数据将不再更新。 数据健康报告 支持用户修改对比策略,周期性展示主实例与备实例的数据一致性对比结果,用于帮助用户审视灾备环境的数据健康情况。 只有灾备中的任务才会进行健康对比。 仅保留最近30次健康对比报告。 数据健康报告是为了用户定期且长期掌握主实例与备实例的数据一致性,为避免长期对比对主实例的性能损耗,对于特大表(比如超亿行的表)的对比,建议使用对比灾备项。 修改对比策略 修改对比策略不会影响当前进行的健康对比任务,修改后的设置在下次生效。 1、在“数据健康报告”页签的“健康对比策略”区域,单击“修改对比策略”,进入修改对比策略界面。 2、在“修改对比策略”界面设置各个参数。 开启状态:关闭健康对比策略后,下一次的健康对比将不会再进行,历史健康报告仍可正常查看。 对比频率:提供“每周对比”和“每天对比”两种对比频率。 对比时间:对比频率选择“每周对比”时,可设置周一到周日的一天或多天为对比时间。 时区:默认为本地时区。 生效时间:设置对比策略生效的时间段,建议设置在业务低峰期进行对比。生效时间内未完成健康对比会自动中断,已完成的对比结果仍可查看。 对比类型:默认为行对比+用户对比+对象对比。 3、单击“确定”,完成修改对比策略。 修改成功后,将在生效时间启动对比任务,您可以取消进行中的任务,取消后,已经对比成功的健康报告仍可查看。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时灾备
        任务生命周期
        查看灾备数据
      • 续传灾备任务
        本节主要介绍续传灾备任务 灾备过程中可能因外部因素导致灾备暂时故障,用户根据灾备日志信息解决问题后,可以通过续传功能继续灾备,常见场景如存储空间不足。 说明 如果因为非网络原因导致灾备失败,系统默认进行三次自动续传,若三次续传后仍无法恢复灾备,可手动进行续传。 如果因为网络原因导致灾备失败,系统自动续传,直到恢复灾备。 前提条件 已登录数据复制服务控制台。 已成功创建灾备任务,并且灾备失败。 方式一 在“实时灾备管理”页面任务列表中,选择需要启动的任务,单击操作列“续传”,重新提交灾备任务。 方式二 步骤 1 在“实时灾备管理”页面任务列表中,选择需要启动的任务,单击任务名称。 步骤 2 跳转至“基本信息”页签,切换至“灾备进度”页签,单击左上角“续传”,重新提交灾备任务。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时灾备
        任务生命周期
        续传灾备任务
      • 修改流速模式
        本节主要介绍修改流速模式 流速模式支持限速和不限速,默认为不限速。DRS提供创建任务后修改流速模式,目前仅以下实时同步链路支持限速功能: 入云 MySQL>MySQL Oracle>MySQL Oracle>DRDS Oracle>PostgreSQL PostgreSQL>PostgreSQL 出云 MySQL>MySQL 自建自建 说明 限速模式只对全量同步阶段生效,增量同步阶段不生效。 增量阶段修改限速后,待任务再次进入全量阶段会生效。如增量中的任务修改限速,编辑任务新加同步对象后,限速会在同步任务的全量阶段生效。 前提条件 已登录数据复制服务控制台。 已创建同步任务。 方法一 步骤 1 在“基本信息”页签的“同步信息”区域,单击“流速模式”后的“修改”。 步骤 2 在弹出的对话框中修改流速模式。 方法二 步骤 1 在“实时同步管理”页面的同步列表中,选择需要修改流速模式的任务,单击操作列的“更多>限速”,或“限速”。 步骤 2 在弹出的对话框中修改流速模式。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        任务生命周期
        修改流速模式
      • 删除迁移任务
        本节主要介绍删除迁移任务 对于备份迁移任务,您可选择删除迁移任务。被删除后的任务将不会再出现在任务列表中,请谨慎操作。 前提条件 已登录数据复制服务控制台。 删除任务 步骤 1 在“备份迁移管理”页面的迁移列表中,选择需要删除的任务,单击操作列的“删除”按钮。 步骤 2 单击“确定”,提交删除任务。
        来自:
        帮助文档
        数据库复制
        用户指南
        备份迁移
        任务管理
        删除迁移任务
      • 续传迁移任务
        本节主要介绍续传迁移任务 迁移中可能因外部因素导致迁移暂时故障,用户根据迁移日志信息解决问题后,可以通过续传功能继续迁移,常见场景如存储空间不足。 对于以下状态的任务,可以通过续传功能继续迁移任务。 迁移失败 已暂停 说明 如果因为非网络原因导致迁移失败,系统默认进行三次自动续传,若三次续传后仍无法恢复,可手动进行续传。 前提条件 已登录数据复制服务控制台。 已成功创建迁移任务,并且迁移失败。 方式一 在“实时迁移管理”页面任务列表中,选择需要启动的任务,单击操作列“续传”,重新提交迁移任务。 方式二 步骤 1 在“实时迁移管理”页面任务列表中,选择需要启动的任务,单击任务名称。 步骤 2 跳转至“基本信息”页签,切换至“迁移进度”页签,单击左上角“续传”,重新提交迁移任务。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        续传迁移任务
      • 查看灾备日志
        本节主要介绍查看灾备日志 灾备日志记录了数据灾备同步过程中的信息,包含告警、错误和提示等类型的信息。数据灾备过程中,可以通过查看灾备日志信息,帮助您分析系统中存在的问题。 前提条件 已登录数据复制服务控制台。 操作步骤 步骤 1 在“实时灾备管理”界面,选中指定灾备任务,单击任务名称。 步骤 2 在“灾备日志”页签,查看当前灾备任务的日志。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时灾备
        任务管理
        查看灾备日志
      • 删除同步任务
        本节主要介绍删除同步任务 对于已结束或者配置失败的实时同步任务,您可选择删除同步任务。被删除后的任务将不会再出现在任务列表中,请谨慎操作。 前提条件 已登录数据复制服务控制台。 删除任务 步骤 1 在“实时同步管理”页面的任务列表中,选择要删除的任务,单击“删除”。 步骤 2 单击“确定”,提交删除任务。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        任务生命周期
        删除同步任务
      • 续传同步任务
        本节主要介绍续传同步任务 实时同步中可能因外部因素导致同步暂时故障,用户根据同步日志信息解决问题后,可以通过续传功能继续同步,常见场景如存储空间不足。 对于以下状态的任务,可以通过续传功能继续同步任务。 同步失败 已暂停 说明 如果因为非网络原因导致同步失败,系统默认进行三次自动续传,若三次续传后仍无法恢复,可手动进行续传。 如果因为网络原因导致同步失败,系统自动续传,直到恢复同步。 前提条件 已登录数据复制服务控制台。 方式一 在“实时同步管理”页面任务列表中,选择需要启动的任务,单击操作列“续传”,重新提交同步任务。 方式二 步骤 1 在“实时同步管理”页面任务列表中,选择需要启动的任务,单击任务名称。 步骤 2 跳转至“基本信息”页签,切换至“同步进度”页签,单击左上角“续传”,重新提交同步任务。 批量续传 步骤 1 在“实时同步管理”页面的同步任务列表中,选择需要续传的任务。 步骤 2 单击左上方的“批量操作”,选择“批量续传”。 步骤 3 在弹出的确认对话框中,确认任务信息后,单击“是”,提交续传任务。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        任务生命周期
        续传同步任务
      • 暂停迁移任务
        本节主要介绍暂停迁移任务 迁移时不可避免业务高峰期的情况下,如果流速模式仍不能满足需要,DRS提供对迁移中的任务进行暂停功能。 目前以下迁移链路支持暂停功能: 入云 MySQL>MySQL MongoDB>DDS 出云 MySQL>MySQL DDS>MongoDB 前提条件 已登录数据复制服务控制台。 迁移任务正常运行中。 暂停任务 步骤 1 在“实时迁移管理”页面的迁移列表中,选择要暂停的迁移任务,单击“操作 > 暂停”。 步骤 2 在弹出的“暂停任务”对话框中,选择“暂停日志抓取”后,单击“是”。 说明 暂停成功后,状态栏显示为“已暂停”。 勾选“暂停日志抓取”后,该功能会停止一切DRS和源库、目标库的连接,请注意暂停过长可能会因为源端所需日志过期而导致任务无法恢复续传。建议暂停时间不超过24小时。 需要继续迁移时,可以使用续传功能。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        暂停迁移任务
      • SQL语法类
        本章节主要介绍 SQL语法类 DRDS是否支持分布式JOIN DRDS支持分布式JOIN。 表设计时,增加字段冗余 支持跨分片的JOIN,主要实现的方式有三种:广播表,ER分片和ShareJoin。 DRDS目前禁止多个表的跨库update和delete。 如何进行SQL优化 尽量避免使用LEFT JOIN或RIGHT JOIN,建议使用INNER。 在使用LEFT或RIGHT JOIN时,ON会优先执行,WHERE条件在最后执行,所以在使用过程中,条件尽可能在ON语句中判断,减少WHERE的执行。 尽量少用子查询,改用JOIN,避免大表全表扫描。 DRDS是否支持数据类型强制转换 数据类型转换属于高级用法。DRDS对SQL的兼容性会逐步完善,如有需要请提工单处理。
        来自:
        帮助文档
        分布式关系型数据库
        常见问题
        SQL语法类
      • 产品规格
        本节主要介绍产品规格 通用增强型实例是新推出的一系列性能高、计算能力稳定的实例规格,搭载英特尔®至强®可扩展处理器,配套高性能网络,综合性能及稳定性全面提升,满足对业务稳定性及计算性能要求较高的企业级应用诉求。 产品规格 规格类型 架构 CPU(核) 内存(GB) :::: 通用增强型 X86 8 16 通用增强型 X86 16 32 通用增强型 X86 32 64
        来自:
        帮助文档
        分布式关系型数据库
        产品简介
        产品规格
      • 一致性备份说明
        本章节介绍一致性备份说明 DRDS对一致性备份进行了功能优化调整,将该功能调整成恢复数据中的“Metadata恢复”。调整为“Metadata恢复”之后,已经创建的一致性备份将不可再用于恢复,一致性备份相关操作将会隐藏。如果您需要进行数据恢复,请通过“Metadata恢复”完成。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        一致性备份
        一致性备份说明
      • 恢复configsvr副本集
        本节主要介绍恢复configsvr副本集 准备目录 rm rf /compile/clusterrestore/cfg mkdir p /compile/clusterrestore/cfg1/data/db mkdir p /compile/clusterrestore/cfg1/log mkdir p /compile/clusterrestore/cfg2/data/db mkdir p /compile/clusterrestore/cfg2/log mkdir p /compile/clusterrestore/cfg3/data/db mkdir p /compile/clusterrestore/cfg3/log 操作步骤 步骤 1 准备单节点配置文件和数据目录,以单节点方式启动进程。 配置文件如下(restoreconfig/single40303.yaml)。 net: bindIp: 127.0.0.1 port: 40303 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg1/configsvr.pid} storage: dbPath: /compile/clusterrestore/cfg1/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg1/log/configsingle.log} 准备数据,将解压后的configsvr文件拷贝到单节点dbPath目录下。 cp aR /compile/download/backups/cac1efc8e65e42ecad8953352321bfeein0241c8a32fb10245899708dea453a8c5c9no02/ /compile/clusterrestore/cfg1/data/db/ 启动进程。 ./mongod f restoreconfig/single40303.yaml 步骤 2 连接单节点,执行配置命令。 连接命令:./mongo host 127.0.0.1 port 40303 执行如下命令,修改副本集配置信息。 var cfdb.getSiblingDB('local').system.replset.findOne(); cf['members'][0]['host']'127.0.0.1:40303'; cf['members'][1]['host']'127.0.0.1:40304'; cf['members'][2]['host']'127.0.0.1:40305'; cf['members'][0]['hidden']false; cf['members'][1]['hidden']false; cf['members'][2]['hidden']false; cf['members'][0]['priority']1; cf['members'][1]['priority']1; cf['members'][2]['priority']1; db.getSiblingDB('local').system.replset.remove({}); db.getSiblingDB('local').system.replset.insert(cf) 执行如下命令,清理内置账号。 db.getSiblingDB('admin').dropAllUsers(); db.getSiblingDB('admin').dropAllRoles(); 执行如下命令,更新mongos和shard信息。 db.getSiblingDB('config').mongos.remove({}); 先查询config.shards表中的多个shard的id信息,用于下面语句的id的查询条件。逐个更新每条记录。 db.getSiblingDB('config').shards.update({'id' : 'shard1'},{$set: {'host': 'shard1/127.0.0.1:40306,127.0.0.1:40307,127.0.0.1:40308'}}) db.getSiblingDB('config').shards.update({'id' : 'shard2'},{$set: {'host': 'shard2/127.0.0.1:40309,127.0.0.1:40310,127.0.0.1:40311'}}) db.getSiblingDB('config').mongos.find({}); db.getSiblingDB('config').shards.find({}); 执行如下命令,关闭单节点进程。 db.getSiblingDB('admin').shutdownServer(); 步骤 3 搭建configsvr副本集。 准备副本集配置文件和目录,将configsvr1节点的dbPath文件拷贝到其他两个节点目录下。 cp aR /compile/clusterrestore/cfg1/data/db/ /compile/clusterrestore/cfg2/data/db/ cp aR /compile/clusterrestore/cfg1/data/db/ /compile/clusterrestore/cfg3/data/db/ 修改configsvr1节点配置文件,增加副本集配置属性(restoreconfig/configsvr40303.yaml)。 net: bindIp: 127.0.0.1 port: 40303 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg1/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg1/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg1/log/configsvr.log} 启动进程。 ./mongod f restoreconfig/configsvr40303.yaml 修改configsvr2节点配置文件,增加副本集配置属性(restoreconfig/configsvr40304.yaml)。 net: bindIp: 127.0.0.1 port: 40304 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg2/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg2/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg2/log/configsvr.log} 启动进程 ./mongod f restoreconfig/configsvr40304.yaml 修改configsvr3节点配置文件,增加副本集配置属性(restoreconfig/configsvr40305.yaml)。 net: bindIp: 127.0.0.1 port: 40304 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg2/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg2/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg2/log/configsvr.log} 启动进程。 ./mongod f restoreconfig/configsvr40305.yaml 步骤 4 等待选主成功。 ./mongo host 127.0.0.1 port 40303 执行命令rs.status(),查看是否已存在主节点Primary。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复configsvr副本集
      • 恢复mongos节点
        本文主要介绍恢复mongos节点 步骤 1 准备mongos节点的配置文件和目录。 rm rf /compile/clusterrestore/mgs mkdir p /compile/clusterrestore/mgs1/log mkdir p /compile/clusterrestore/mgs2/log 步骤 2 配置文件(restoreconfig/mongos40301.yaml)。 net: bindIp: 127.0.0.1 port: 40301 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/mgs1/mongos.pid} sharding: {configDB: 'config/127.0.0.1:40303,127.0.0.1:40304,127.0.0.1:40305'} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/mgs1/log/mongos.log} 步骤 3 配置文件(restoreconfig/mongos40302.yaml)。 net: bindIp: 127.0.0.1 port: 40302 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/mgs2/mongos.pid} sharding: {configDB: 'config/127.0.0.1:40303,127.0.0.1:40304,127.0.0.1:40305'} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/mgs2/log/mongos.log} 步骤 4 启动mongo节点。 ./mongos f restoreconfig/mongos40301.yaml ./mongos f restoreconfig/mongos40302.yaml
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复mongos节点
      • 查看操作事件
        本节介绍如何在云审计服务管理控制台查看最近7天的操作记录。 在您开通了云审计服务后,系统开始记录云服务资源的操作。云审计服务管理控制台保存最近7天的操作记录。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 单击“服务列表”,选择“管理与部署 > 云审计服务”,进入云审计服务信息页面。 步骤 4 在左侧导航树,单击“事件列表”,进入事件列表信息页面。 步骤 5 事件列表支持通过筛选来查询对应的操作事件。当前事件列表支持四个维度的组合查询,详细信息如下: 事件来源、资源类型和筛选类型。 在下拉框中选择查询条件。 其中,筛选类型选择“按事件名称”时,还需选择某个具体的事件名称。 选择“按资源ID”时,还需选择或者手动输入某个具体的资源ID。 选择“按资源名称”时,还需选择或手动输入某个具体的资源名称。 操作用户:在下拉框中选择某一具体的操作用户,此操作用户指用户级别,而非租户级别。 事件级别:可选项为“所有事件级别”、“normal”、“warning”、“incident”,只可选择其中一项。 起始时间、结束时间:可通过选择时间段查询操作事件。 步骤 6 在需要查看的记录左侧,单击展开该记录的详细信息。 步骤 7 在需要查看的记录右侧,单击“查看事件”,在弹出框中显示该操作事件结构的详细信息。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        审计
        查看操作事件
      • 目录及配置说明
        恢复步骤 命令运行目录:/compile/mongodb/mongodbsrc4.0.3
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        目录及配置说明
      • 计费类
        本文主要介绍计费类问题 在哪里查询不同规格实例的价格? 不同区域、不同规格的实例价格有所差异,您可以在产品价格详情查询价格 预付费和后付费是什么意思?如何选择? 预付费:一般为包年包月的购买形式,先购买再使用,系统根据用户选择的规格计算购买金额,对用户帐户金额进行扣除。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        计费类
      • 通过云日志服务查看审计日志
        本文主要介绍通过云日志服务查看审计日志 通过云日志服务进行分析日志、搜索日志、日志可视化、下载日志和查看实时日志等操作。 查看LTS审计日志 说明 实例已经配置了访问日志,操作详情请参见日志配置管理—新增 步骤 1 在页面左上角单击,选择“管理与监管 > 云日志服务”,进入云服务日志页面。 步骤 2 在“日志组列表”区域,选择目标日志组,单击日志组名称。 查看日志详情 下载LTS日志文件 说明 如果实例已经配置了访问日志,操作详情请参见 步骤 1 在页面左上角单击,选择“管理与监管 > 云日志服务”,进入云服务日志页面。 步骤 2 在“日志组列表”区域,选择目标日志组,单击日志组名称。 下载日志 步骤 3 单击“”。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        日志管理
        审计日志
        通过云日志服务查看审计日志
      • 1
      • 2
      • ...
      • 178
      • 179
      • 180
      • 181
      • 182
      • 183
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      轻量型云主机

      模型推理服务

      科研助手

      一站式智算服务平台

      知识库问答

      人脸检测

      人脸比对

      推荐文档

      产品优势

      产品价格

      云间高速的优势

      产品特点

      配置目的端

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号