活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云大数据saas服务_相关内容
      • 关系数据库MySQL
        本文主要介绍如何接入Mysql日志。 关系数据库MySQL版日志配置管理可以将MySQL错误日志和慢日志的采集配置纳入管理,将其采集到云日志服务中,满足用户日志处理需求。云日志服务(CTLTS,Log Tank Service)提供一站式日志采集、秒级搜索、海量存储、结构化处理、转储等功能,满足应用运维、网络日志分析、等保合规和运营分析等应用场景。 日志配置管理操作 授权操作 授权访问日志服务操作 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL >实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 点击列表页上方按钮“日志配置管理”。 4. 单击需要配置日志管理的实例记录对应的配置访问日志。 5. 单击授权访问日志服务,完成授权操作。 管理日志项目 1. 点击"查看日志项目"进入“云日志服务”,选择需要操作的“资源池”。 2. 创建“日志项目”,在对应日志项目下,点击项目名称下拉三角符号,并“创建单元”。 配置慢日志或错误日志 1. 进入Mysql控制台,点击"日志配置管理"进入日志配置管理列表界面。 2. 点击需要配置日志管理的实例记录对应的“配置访问日志”按钮。 3. 选择日志类型“慢日志”或“错误日志”。 4. 下拉选择“日志项目”,然后选择“日志单元”。 5. 点击“确认”,等待配置下发完成(约1~2分钟)。 6. 当日志配置管理列表对应实例的”LTS慢日志配置“或”LTS错误日志配置“状态为“运行中”,表示日志配置成功。 注意:如果没有“日志项目”或“日志单元”,先点击"查看日志项目"进入“云日志服务”,创建“日志项目”和“日志单元”。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        关系数据库MySQL
      • 场景说明
        本章节介绍云硬盘备份的场景说明,包含一次性备份和周期性备份。 云硬盘备份提供两种配置方式,一次性备份和周期性备份。一次性备份是指用户手动创建的一次性备份任务。周期性备份是指用户通过创建备份策略并绑定云硬盘的方式创建的周期性备份任务。 云硬盘备份的两种配置方式对比如下表,可根据实际情况选择适合的配置方式。 对比项 一次性备份 周期性备份 备份策略 不需要 需要 备份次数 手动执行一次性备份 根据备份策略进行周期性备份 单次可备份的云硬盘数目 1个 无限制由服务器性能决定 备份名称 支持自定义 系统自动生成 建议使用场景 云主机进行操作系统补丁安装、升级,应用升级等操作之前,以便安装或者升级失败之后,能够快速恢复到变更之前的状态。 云主机的日常备份保护,以便发生不可预见的故障而造成数据丢失时,能够使用邻近的备份进行恢复。 另外,用户也可以根据业务情况将两种方式混合使用。例如,根据云硬盘中存放数据的重要程度不同,可以将所有的云硬盘加入到一个备份策略中进行日常备份保护。其中个别保存有非常重要的数据的云硬盘,根据需要不定期的执行一次性备份,保证数据的安全性。
        来自:
        帮助文档
        云硬盘备份 VBS
        快速入门
        场景说明
      • 查看监控数据
        本文主要介绍查看监控数据。 操作场景 云监控对Kafka实例的运行状态进行日常监控,可以通过控制台直观的查看Kafka实例各项监控指标。 前提条件 已创建Kafka实例,且实例中有可消费的消息。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,查看监控数据。 在Kafka实例名称后,单击。跳转到云监控页面,查看实例、节点、队列和消费组的监控数据,数据更新周期为1分钟。 单击Kafka实例名称,进入实例详情页。在左侧导航栏单击“监控”,进入监控页面,查看实例、节点、队列和消费组的监控数据,数据更新周期为1分钟。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        查看监控数据
      • 搭建云上容灾专有网络
        操作场景 虚拟私有云可以为您的容灾服务器提供隔离的、用户自主配置和管理的云上虚拟网络环境。 异步复制其实就是将本地主数据中心中需要容灾的服务器的数据,实时复制到云上用户的专有网络中。当本地数据中心发生重大故障时,可以将业务切换到云上VPC中运行容灾服务器上,从而保持业务的连续性。 创建云上专有网络时需要考虑的因素: 容灾区域 需要根据业务对容灾系统的实际要求进行选择,如生产站点和容灾站点间的物理距离、网络性能以及网络成本等因素来选择容灾区域,如业务要求生产站点和容灾站点间的物理距离不低于100KM,网络时延小于100ms,同时成本限制不能使用专线等。 本地数据中心和天翼云VPC间的连接网络 公网:适用于数据变化量不大,且本地生产数据中心的系统无需频繁访问云上资源的场景。 VPN:适用于数据变化量不大,本地生产数据中心需要随时连接天翼云VPC内业务的场景。如用户有部分业务部署在天翼云,本地数据中心的业务当前就是通过VPN与云上的业务进行交互,进行异步复制时就可以使用该VPN连接。 云专线:针对数据量较大且应用较复杂的场景,通常需要根据业务的具体数据变化量进行规划。 VPC的网段 用于运行切换或者容灾演练时创建的ECS,如果需要保持切换或者容灾演练创建的ECS的IP地址和本地数据中心的生产服务器一致,可以将VPC的网段和本地生产数据中心的网段设置成相同的。业务切换或者容灾演练时,就可以保持服务器的IP地址不变,无需修改相关的配置。 操作步骤 您可以根据您的整体网络规划创建云上专有容灾网络,具体创建操作请参见虚拟私有云帮助中心。
        来自:
        帮助文档
        存储容灾服务
        快速入门
        异步复制
        搭建云上容灾专有网络
      • 功能概览
        功能模块 产品功能 单机版 主备版 规格 节点数 1 2 规格 规格配置 vCPU:最高64核 vCPU:最高64核 规格 规格配置 内存大小:最高512GB 内存大小:最高512GB 规格 规格配置 数据盘:最高32TB 数据盘:最高32TB 实例操作 开通实例 支持 支持 实例操作 删除实例 支持 支持 实例操作 暂停 不支持 不支持 实例操作 续费 支持 支持 实例操作 重启 支持 支持 计费模式 自助开通 支持 支持 计费模式 包周期 支持 支持 计费模式 按需 支持 支持 实例升级 系列升级 支持 不支持 实例升级 规格升级 支持CPU和内存升级 仅支持在相同性能类型内升级 支持CPU和内存升级 仅支持在相同性能类型内升级 实例升级 存储空间 仅支持扩容 仅支持扩容 实例升级 备份空间 对象存储类型按量计费,无需扩容 云硬盘类型支持扩容,不支持缩容 对象存储类型按量计费,无需扩容 云硬盘类型支持扩容,不支持缩容 实例管理 安全组 支持 支持 实例管理 修改端口 支持 支持 实例管理 账号管理 支持 支持 实例管理 修改账号密码 支持 支持 实例管理 数据库管理 支持 支持 实例管理 参数设置 支持 支持 备份 全量/增量备份 支持 支持 备份 自动/手动备份 支持 支持 备份 管理备份策略 支持 支持 备份 跨域备份 支持 支持 恢复 指定时间点恢复 支持 支持 恢复 指定备份集恢复 支持 支持 服务可用性 主备切换 不支持 支持 服务可用性 查看切换日志 不支持 支持 日志管理 错误日志 支持 支持 日志管理 日志配置管理 支持(华北2、华东1支持) 支持(华北2、华东1支持) 监控告警 指标监控 支持 支持 监控告警 告警 支持 支持
        来自:
        帮助文档
        关系数据库SQL Server版
        产品介绍
        功能概览
      • SQL语法类
        本章节主要介绍 SQL语法类 DRDS是否支持分布式JOIN DRDS支持分布式JOIN。 表设计时,增加字段冗余 支持跨分片的JOIN,主要实现的方式有三种:广播表,ER分片和ShareJoin。 DRDS目前禁止多个表的跨库update和delete。 如何进行SQL优化 尽量避免使用LEFT JOIN或RIGHT JOIN,建议使用INNER。 在使用LEFT或RIGHT JOIN时,ON会优先执行,WHERE条件在最后执行,所以在使用过程中,条件尽可能在ON语句中判断,减少WHERE的执行。 尽量少用子查询,改用JOIN,避免大表全表扫描。 DRDS是否支持数据类型强制转换 数据类型转换属于高级用法。DRDS对SQL的兼容性会逐步完善,如有需要请提工单处理。
        来自:
        帮助文档
        分布式关系型数据库
        常见问题
        SQL语法类
      • 设置ICAgent日志采集开关
        介绍如何设置ICAgent日志采集开关。 在“ICAgent采集开关”页签,支持设置ICAgent采集开关(控制ICAgent是否对日志数据进行采集)、采集Syslog日志到AOM、采集容器标准输出到AOM。 设置采集开关 1、登录管理控制台,选择“管理与部署 > 云日志服务 LTS”,进入“日志管理”页面。 2、左侧导航选择“配置中心”,单击“ICAgent采集开关”。 3、ICAgent采集开关是用来控制ICAgent是否对日志数据进行采集。 “ICAgent采集开关”默认打开,当您不需要采集日志时,通过关闭“ICAgent采集开关”停止日志采集,以减少资源占用。 “ICAgent采集开关”关闭后,ICAgent会停止采集日志,且在应用运维管理AOM控制台的“日志采集开关”也会同步关闭。 4、采集Syslog日志到AOM用来控制ICAgent是否采集Syslog日志到AOM1.0。开关关闭后,ICAgent将不会采集Syslog日志到AOM1.0,此功能仅支持5.12.182以上版本的ICAgent。 5、采集容器标准输出到AOM。选择CCE集群,开启或关闭应用到该集群。开关关闭后,ICAgent将不会采集标准输出日志到AOM,此功能仅支持5.12.133以上版本的ICAgent。建议使用云容器引擎CCE应用日志接入LTS直接采集容器标准输出到LTS,不推荐采集到AOM。
        来自:
        帮助文档
        云日志服务
        用户指南
        LTS配置中心管理
        设置ICAgent日志采集开关
      • 专属云创建云硬盘
        本文帮助您了解在专属云上创建云硬盘相关的场景、约束及操作步骤。 操作场景 系统盘在创建云主机或物理机时自动添加,无需单独创建。数据盘可以在创建云主机或物理机时创建,由系统自动挂载给云主机或物理机,也可以在创建了云主机或物理机之后,单独创建云硬盘并挂载给云主机或物理机。 约束与限制 系统盘只能在购买云主机时自动创建并挂载,云硬盘创建窗口只能创建数据盘。 随专属云主机创建的云硬盘,计费模式与专属云主机保持一致,只能是按量付费。 共享盘或磁盘模式为SCSI或磁盘类型为极速型SSD的云硬盘不支持加密模式。 随专属云主机一起创建的云硬盘会自动挂载至云主机上,且不可卸载,无法再挂载至其他云主机或物理机中使用。 云硬盘只能被挂载在同一个可用区的云主机或物理机上。 云硬盘的可用区不可修改。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东dectest1017。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 单击“创建云硬盘”,进入云硬盘创建页面。 5. 根据界面提示,配置云硬盘的基本信息。 注意 计算专属云的存储资源支持按照资源包和按需收费两种付费方式。 1. 按实际使用量付费:若您每月使用云硬盘资源差异较大,建议您选择按需付费方式订购云硬盘。 2. 按月付费:若您有长期使用规划,建议购买存储资源包,从而以包抵扣的方式实现包周期计费。针对不订购资源包或者超出资源包的部分,按照按需计费。具体费用信息可参考 6. 确定云硬盘的配置信息后,点击“下一步”。 7. 在“资源详情”页面,您可以再次核对云硬盘信息。确认无误后,阅读并勾选服务协议,单击“确认下单”,开始创建云硬盘。如果还需要修改,点击“上一页”,修改参数。 8. 在云硬盘主页面,查看云硬盘状态。待云硬盘状态变为“未挂载”时,表示创建成功。
        来自:
        帮助文档
        专属云(计算独享型)
        用户指南
        专属云使用云硬盘
        专属云创建云硬盘
      • 高并发写入实践
        本页主要介绍了高并发场景写入的热点问题与解决方法。 高并发写入最佳实践 分布式融合数据库HTAP支持线性扩展,通过均衡调度可以尽可能将业务的写负载均匀地分布到不同的计算或存储节点上,更好地利用上整体系统资源,以满足业务高并发写入场景下的数据存储需求。然而,在某些场景下,仍然可能会出现部分业务写负载不能被很好地分散,导致某些节点负载过高,引发性能瓶颈或不均衡的情况,无法发挥出分布式架构的优势,从而影响了整体的性能,这种情况通常称为写热点问题。 下文阐述了分布式融合数据库HTAP的数据分布原理,高并发写入场景下热点产生的原因,以及如何规避或者优化写热点问题。 数据分布原理 数据分片 分布式融合数据库HTAP采用 KeyValue 模型作为数据的存储模型,数据按范围分片存储,每个数据分片负责存储一段 Key 范围(从 StartKey 到 EndKey 的左闭右开区间)的数据,每个行存节点会负责多个数据分片。当一个分片持续写入数据,导致分片数据过大,超过一定阈值,系统会将该数据分片分裂为两个数据分片。相反的,如果相邻的两个数据分片过小,系统则会自动触发将它们合并成一个数据分片。 数据采用多副本存储,通过 MultiRaft 协议实现数据强一致性,确保少数副本发生故障时不影响可用性。每个分片对应一个Raft Group,由 Raft Leader 负责处理数据的读写。分布式融合数据库HTAP的管理节点会动态地将分片 Raft Leader 调度到不同的存储节点上,实现负载均衡。
        来自:
        帮助文档
        分布式融合数据库HTAP
        最佳实践
        高并发写入实践
      • 使用数据稽查功能对比迁移
        本页介绍天翼云TeleDB数据库如何使用数据稽查功能对比迁移。 数据稽查功能用于对比源库与目标库的数据差异,帮助用户及时发现数据不一致的问题。支持对源库和目标库的对象数目、数据行数、字段内容等多个维度的进行一致性对比。 数据稽查的类型 对象对比 对象级对比任务,对源库和目标库的数据库、索引、表、视图等对象的数量进行对比,检查数据对象是否缺失。 支持的数据链路:MYSQL > TeleDB、PostgreSQL > TeleDB。 行数对比 通过对源和目标库中表的行数进行对比,检查表的数据是否缺失。 支持的数据链路:MYSQL > TeleDB、PostgreSQL > TeleDB、 Oracle > TeleDB。 内容对比 通过对源和目标库中表的行数据进行对比,检查表的行数据是否一致。 支持的数据链路: MYSQL > TeleDB、PostgreSQL > TeleDB、 Oracle > TeleDB。 支持设置数据块大小: 用户可以自由控制内容对比的数据块大小,数据块的大小可设置在100010000范围内。 支持抽样校验: 如果迁移或同步的数据量非常大,对所有数据都进行校验会对源库和目标库造成高负荷。为此,内容对比提供抽样校验功能,用户可以通过设置抽样比例对数据进行抽样检验,以减小数据库的负担。可设置的抽样比例为10%、20%、30%、……、100%。 支持设置任务超时时间: 用户可以设定内容对比任务的最长运行时间,如果任务未能在最大期限内完成,则任务自行终止。可设置的时间长度为1180分钟。 支持查看不一致数据的所在范围: 如果发现不一致的数据,用户可以查看不一致数据所在的范围,缩小了用户需要自行检查的数据范围。 操作步骤 1. 在DTS的实例管理页面,单击目标实例名称,进入实例详情页面。 2. 在左侧菜单栏选择 数据稽查 ,进入数据稽查页面。 3. 在数据稽查 页面,您可以分别在对象级对比、数据级对比、内容级对比页面创建不同级别的对比任务。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        使用数据稽查功能对比迁移
      • 从零到使用文档数据库服务步骤指引
        本页介绍了如何从零到使用文档数据库的操作步骤。 内网使用 1. 创建文档数据库 请参见新建文档数据库服务实例。 2. 创建同VPC下的弹性云主机 请参见弹性云主机快速入门创建弹性云主机。 3. 设置安全组 请参见设置安全组和白名单。 4. 在步骤2中创建的云主机上,连接文档数据库 请参见内网通过Mongo Shell连接实例。 5. 使用文档数据库 请参见用户指南。 公网使用 1. 创建文档数据库 请参见新建文档数据库服务实例。 2. 绑定弹性公网IP 请参见绑定与解绑弹性公网IP。 3. 设置安全组 请参见设置安全组和白名单。 4. 连接文档数据库 请参见公网通过Mongo Shell连接实例。 5. 使用文档数据库 请参见用户指南。
        来自:
        帮助文档
        文档数据库服务
        快速入门
        从零到使用文档数据库服务步骤指引
      • DeepSeek模型调用-专业版
        Ragflow 注意 目前息壤model不支持embedding model能力,因此只能作为chat model提供能力。 下载镜像git clone < 通过docker安装并启动。 shell cd ragflow/docker docker compose f dockercomposeCN.yml up d 检查 RAGFlow 服务是否正常启动。 shell docker logs f ragflowserver 如果看到类似以下输出,则表示启动成功: shell Running on all addresses (0.0.0.0) Running on Running on 打开浏览器配置模型Xinference服务提供商。 在浏览器中输入服务器的 IP 地址访问 RAGFlow。默认情况下,RAGFlow 使用 HTTP 端口 80,因此无需输入端口号。 选择“Xinference”模型服务商( Xinference是工厂配置,支持自定义模型名称)。 配置chatmodel的界面如下: 回到对话界面,配置聊天助手: 开启对话: 常见报错 触发限流 ruby 报错信息为:[openaiapicompatible]Error:APIrequestfailedwithstatuscode429:{"code":700007,"detail":"Deepseek模型并发已达上限","message":"DEEPSEEKMODELCONCURRENCYLIMIT","error":{"code":"700007","message":"Deepseek模型并发已达上限","type":"DEEPSEEKMODELCONCURRENCYLIMIT"}} 问题原因:大模型并发是大模型的并发能力,和用户、tokens是否用完都无关,只和机器负载能力有关。目前单个模型有固定的并发度,这是所有ds模型共享的并发度,只能支持固定个请求同时访问。 解决方案:等一段时间再调用,或增加重试机制。
        来自:
        帮助文档
        一站式智算服务平台
        最佳实践
        DeepSeek模型调用-专业版
      • 从快照回滚数据(公测)
        本节介绍了从快照回滚数据的操作场景、约束与限制、操作步骤。 操作场景 如果云硬盘的数据发生错误或者损坏,可以回滚快照数据至创建该快照的云硬盘,从而恢复数据。 约束与限制 ● 只支持回滚快照数据至源云硬盘,不支持快照回滚到其它云硬盘。 ● 只有当快照的状态为“可用”,并且源云硬盘状态为“可用”(即未挂载给云主机)或者“回滚数据失败”时,您才可以执行该操作。 ● 开头为“autobksnapshotvbs”、“manualbksnapshotvbs”、“autobksnapshotcsbs”、“manualbksnapshotcsbs”的快照,是创建备份时系统自动生成的快照。该快照仅支持查看详细信息,无法用于回滚数据。 操作步骤 步骤 1 登录管理控制台。 步骤 2 选择“存储 > 云硬盘”。 步骤 3 在左侧导航栏,选择“云硬盘 > 快照”。 进入“快照”页面。 步骤 4 在快照列表中,找到目标快照并单击快照所在行的“操作”列下的“回滚数据”。 步骤 5 在弹出的对话框中,只有当快照的状态为“可用”,并且源云硬盘状态为“可用”或者“回滚数据失败”时,才可以单击“确定”。 步骤 6 返回快照列表页面,当快照状态由“正在回滚”变为“可用”时,表示回滚数据成功。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        普通快照(公测)
        从快照回滚数据(公测)
      • 镜像格式转换及分区文件生成
        。 分区4,LVM的物理卷。此分区用于LVM的物理卷。LVM不是必须使用的。如果不使用LVM分区,可不设置pv: true的分区。此时也不需要lvm:下的各项配置。普通分区不像LVM逻辑卷,分区后难以改变,应提前规划好。 下面说明各个LVM逻辑卷。如果需要修改样例中的逻辑卷,请先阅读这部分。 使用LVM逻辑卷方便在系统安装后再自行扩展分区大小。关于LVM的一般知识,包括调整LVM逻辑卷大小等,参考LVM。对已有重要数据的分区,需谨慎操作。应先备份数据,再考虑扩缩容LVM逻辑卷。 其他系统分区可考虑使用LVM逻辑卷,而不是普通分区。如何设置分区和具体应用有关,一般的信息和建议可参考分区方案。如不确定如何分区,保守的选择是使用各发行版默认的自动分区方案。 服务器大都内存充足,可考虑不设置swap逻辑卷。服务器内存通常比较大,也很少使用休眠功能,不必参考家用计算机通常给出的内存空间的1倍~2倍的建议。参考Swap。 3. Windows镜像分区文件编写 3.1 生成md5文件 使用下面命令可生成镜像对应的md5文件 plaintext md5sum 镜像名.qcow2> 镜像名.qcow2.md5
        来自:
        帮助文档
        物理机 DPS
        用户指南
        镜像
        通过镜像文件制作系统盘私有镜像
        制作镜像文件
        镜像格式转换及分区文件生成
      • 产品优势
        本文主要介绍产品优势 性能测试提供一站式性能测试解决方案,帮用户提前识别性能瓶颈。 低成本的超高并发模拟 能够为用户提供单执行机支持万级并发、整体百万级并发的私有性能测试集群。 秒级百万并发能力,模拟瞬间发起大量并发,不仅可让企业提前识别高并发场景下应用的性能瓶颈,防止上线后访问过大导致系统崩溃,而且易于操作,极大的缩短了测试时间。 支持多任务并发执行,让用户可以同时完成多个应用服务的性能测试,大幅提升测试效率。 性能测试灵活快捷,助力应用快速上线 协议灵活自定义:支持HTTP/HTTPS测试,适应基于HTTP/HTTPS协议开发的各类应用和微服务接口性能测试;支持TCP/UDP/WEBSOCKET测试,支持字符串负载与16进制码流两种模式,满足各类非HTTP类协议的数据构造;支持HLS/RTMP/HTTPFLV测试。 多事务元素与测试任务阶段的灵活组合:提供灵活的数据报文、事务定义能力,结合多事务组合,测试任务波峰波谷,可模拟多用户多个操作的组合场景,轻松应对复杂场景的测试;支持针对每个事务指定时间段定义并发用户数,模拟突发业务流量。 性能测试压测资源管理,按需使用 私有资源组:用户按需创建测试集群,实现租户间流量隔离和内/外网压测能力,完成测试后可以随时删除集群。同时,提供测试集群的实时扩容、缩容、升级能力。 共享资源组:不需要用户创建,直接使用,调试和小并发压测更方便。
        来自:
        帮助文档
        性能测试PTS
        产品介绍
        产品优势
      • 关系型数据库服务的关键操作列表
        本节主要介绍关系型数据库服务的关键操作列表 关系型数据库服务(Relational Database Service,以下简称RDS)是一种基于云计算平台的可即开即用、稳定可靠、按需扩展、便捷管理的在线关系型数据库服务。 通过云审计服务,您可以记录与关系型数据库服务相关的操作事件,便于日后的查询、审计和回溯。 云审计服务支持的RDS操作列表 操作名称 资源类型 事件名称 ::: 创建实例、恢复到新实例(Console、OPENAPI、TROVEAPI) instance createInstance 创建只读 (Console、OPENAPI、TROVEAPI) instance createReadReplicate 实例重启、扩容、规格变更、恢复到原有实例操作(Console、OPENAPI 、TROVEAPI) instance instanceAction 重置密码(Console) instance resetPassword 设置数据库版本配置参数(OPENAPI) instance setDBParameters 重置实例的数据库版本配置参数(OPENAPI) instance resetDBParameters 设置备份策略打开,关闭,修改(Console、OPENAPI) instance setBackupPolicy 修改数据库端口号(Console) instance changeInstancePort 绑定解绑EIP(Console) instance setOrResetPublicIP 修改安全组(Console) instance modifySecurityGroup 创建标签(Console、OPENAPI) instance createTag 删除标签(Console、OPENAPI) instance deleteTag 修改标签(Console、OPENAPI) instance modifyTag 删除集群下的实例(Console、OPENAPI、TROVEAPI) instance deleteInstance 创建快照(Console、OPENAPI) backup createManualSnapshot 复制快照(Console) backup copySnapshot 删除快照(Console、OPENAPI) backup deleteManualSnapshot 创建参数组(Console、TROVEAPI) config createParameterGroup 修改参数组(Console、TROVEAPI) config updateParameterGroup 删除参数组(Console、TROVEAPI) config deleteParameterGroup 复制参数组(Console) config copyParameterGroup 重置参数组(Console) config resetParameterGroup 比较参数组(Console) config compareParameterGroup 应用参数组(Console) config applyParameterGroup
        来自:
        帮助文档
        云审计
        用户指南
        支持审计的服务及详细操作列表
        关系型数据库服务的关键操作列表
      • 如何防护CC攻击
        场景3:利用海外或公有云IP发起CC攻击 在CC攻击中,经常出现攻击来源于海外IP、公有云IP和IDC机房IP的情况。我们可以通过识别这些IP防止CC攻击。 您可以使用访问控制功能,限制指定地理位置的IP对网站访问,如:限制除中国地区外的其他地区不可访问,从而阻止来自海外IP的攻击。 此外,WAF提供的Bot防护功能,可针对常见IDC IP库的IP进行访问拦截,如您需要开通此功能,可提交工单申请。 场景4:针对关键接口的CC攻击 关键接口CC攻击是指通过大量恶意请求网页环境的关键接口,如登录、注册等从而使服务不可用的攻击手段。针对此类攻击您可以使用WAF的账户安全防护功能(撞库防护、暴力破解),对指定接口进行防护,具体配置操作请参考:安全防护配置账户安全防护。 场景5:大规模扫描和爬取行为 大规模的恶意扫描行为会给服务器带来很大压力,除了限制访问请求频率外,您还可以使用以下几种防护配置加强防护效果: 攻击挑战:攻击挑战功能可发现在短时间内发起多次请求的IP,并在一段时间内阻断该IP的所有请求,具体配置操作请参考:安全配置防护高级防护攻击挑战。 扫描器访问拦截:该功能可自动封禁来自常见扫描工具访问请求,如您需要开通此功能,可提交工单申请。 Bot防护:Bot防护可限制对网站的大规模爬取行为,如您需要开通此功能,可提交工单申请。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        最佳实践
        如何防护CC攻击
      • 上报日志
        功能介绍 该接口用于上报日志数据至云日志服务中。 URI POST /v1/lts/api/{logProject}/{logUnit}/putlogs Path参数 参数名 类型 描述 endpoint sting 访问地址,请查看访问地址(Endpoint) logProject sting 日志项目ID logUnit string 日志单元ID 参数(Endpoint) 获取方式 各资源池地址请查看访问地址(Endpoint)。 参数(logProject、logUnit)获取方式 logProject、logUnit代表了日志上传的目标日志项目与目标日志单元。要获取这两个参数的前提是您已经成功开通了云日志服务,并创建了日志项目和日志单元,详情参考创建日志项目与日志单元。 创建完成后,您可在云日志服务控制台日志管理日志项目与日志单元列表中获取,将鼠标悬浮在日志项目、日志单元名称上,即可获取项目/单元ID 注意 日志项目和日志单元编码所属区域要和访问地址endpoint相对应,例如日志项目和日志单元开通在华东1区域内,则也需要使用华东1的endpoint。 Header 参数名 说明 token 通过CTAPI获取的临时凭证token值,有限期为30分钟 accesskey 租户的ak ContentType application/json Body 参数名 类型 描述 是否必须 logitems Array[logitem] 参考对象logitem 一个logitme指一条日志 是
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        API接入
        上报日志
      • 上报日志
        功能介绍 该接口用于上报日志数据至云日志服务中。 URI POST /v1/lts/api/{logProject}/{logUnit}/putlogs Path参数 参数名 类型 描述 endpoint sting 访问地址,请查看访问地址(Endpoint) logProject sting 日志项目ID logUnit string 日志单元ID 参数(Endpoint) 获取方式 各资源池地址请查看访问地址(Endpoint)。 参数(logProject、logUnit)获取方式 logProject、logUnit代表了日志上传的目标日志项目与目标日志单元。要获取这两个参数的前提是您已经成功开通了云日志服务,并创建了日志项目和日志单元,详情参考创建日志项目与日志单元。 创建完成后,您可在云日志服务控制台日志管理日志项目与日志单元列表中获取,将鼠标悬浮在日志项目、日志单元名称上,即可获取项目/单元ID 注意 日志项目和日志单元编码所属区域要和访问地址endpoint相对应,例如日志项目和日志单元开通在华东1区域内,则也需要使用华东1的endpoint。 Header 参数名 说明 token 通过CTAPI获取的临时凭证token值,有限期为30分钟 accesskey 租户的ak ContentType application/json Body 参数名 类型 描述 是否必须 logitems Array[logitem] 参考对象logitem 一个logitme指一条日志 是
        来自:
      • 容灾演练
        响应参数 参数 是否必填 参数类型 说明 示例 下级对象 :: statusCode 是 Integer 返回状态码(800为成功,900为失败) 参考响应示例 message 是 String 成功或失败时的描述,一般为英文描述 参考响应示例 description 是 String 成功或失败时的描述,一般为中文描述 参考响应示例 returnObj 否 Object 成功时返回对象 returnObj 表 errorCode 否 String 业务细分码,为product.module.code三段式码 参考状态码 error 否 String 业务细分码,为product.module.code三段式大驼峰码 参考状态码 表 returnObj 参数 是否必填 参数类型 说明 示例 下级对象 status 是 String 云容灾演练成功 参考响应示例 msg 是 String 云容灾演练成功描述 参考响应示例 请求示例 请求头header 无 请求体body json { "regionID":"81f7728662dd11ec810800155d307d5b", "pairID": "88c715b02f954aa6b6ddd81a033e2566", "ecsID":"48f9c789b1428c6e8ac290741ad14fcd", "instanceName": "drilltest01", "favorID":"24ac7dad3e8eacc12b3f297623d793bd", "volumeType": "SATA", "restoreID": "e2c7f2ca578c11eebc48fa163e5f3a5d", "publicIpID": "eip200ebcg", "drillIp":"0.0.0.0" }
        来自:
        帮助文档
        云容灾 CDR
        API参考
        API(公测中)
        容灾演练
        容灾演练
      • 安全相关
        本章节介绍人脸识别安全相关的常见问题与解答。 是否可以设置IP白名单呢? 人脸识别是API服务,暂不支持白名单设置,您可以在自己的服务器上调用我们的服务。 调用过程中如遇到问题,可通过天翼云官网工单或者客服电话【4008109889】沟通。 人脸识别传输的数据是否经过加密呢? 天翼云人脸识别采用天翼云官网标准EOP网关,在整个数据传输过程中,从源端到目的端,都采取了一系列的安全措施,包括身份验证、加密技术和授权机制、数据完整性保护机制和数据恢复机制等,这些措施可以确保数据传输的安全性和可靠性,提高系统的安全性。 若您的数据比较敏感、安全保密性要求高的话,可考虑使用私有化部署。 使用人脸识别服务,图片数据是否会存储? 天翼云一直注重保护客户隐私,图片数据不会存储。 同时因相关规定限制,人脸识别公有云服务数据不落盘,用户的原始图片和识别数据均不作保留,使用人脸识别服务后,图片数据就会立即释放,不会存储。
        来自:
        帮助文档
        人脸识别
        常见问题
        安全相关
      • 安全相关
        本章节介绍内容审核安全相关的常见问题与解答。 是否可以设置IP白名单呢? 内容识别产品提供API服务,暂不支持白名单设置,您可以在自己的服务器上调用我们的服务。 调用过程中如遇到问题,可通过天翼云官网工单或者客服电话【4008109889】沟通。 内容审核传输的数据是否经过加密呢? 天翼云内容审核采用天翼云官网标准EOP网关,在整个数据传输过程中,从源端到目的端,都采取了一系列的安全措施,包括身份验证、加密技术和授权机制、数据完整性保护机制和数据恢复机制等,这些措施可以确保数据传输的安全性和可靠性,提高系统的安全性。 若您的数据比较敏感、安全保密性要求高的话,可考虑使用私有化部署。 使用内容审核服务,图片数据是否会存储? 天翼云一直注重保护客户隐私,图片数据不会存储。 同时因相关规定限制,内容审核公有云服务数据不落盘,用户的原始图片和识别数据均不作保留,使用内容审核服务后,图片数据就会立即释放,不会存储。
        来自:
        帮助文档
        内容审核(文档停止维护)
        常见问题
        安全相关
      • 安装部署
        本文为您介绍数据定时灾备安装部署的相关操作。 概要 数据定时灾备可作为企业级数据备份与恢复功能的软件,支持常见文件系统、数据库、大数据平台备份和恢复。提供多种备份方式满足用户备份策略需求,备端重删压缩技术可节约备份空间,传输压缩可节省带宽资源、传输加密保障数据传输安全性,支持块存储、磁带库、对象存储等存储介质,为企业核心业务数据保驾护航。 数据定时灾备可按照网络配置与drnode安装部署进行配置。除此之外,若需将对象存储作为备份设备,备份服务器需要安装dto程序,用于读取本地存储及对象存储数据并进行传输。DTO的安装分为两种方式:软件包安装和压缩包解压安装。 注意: DTO有关软件程序的安装必须在Linux的root用户、Windows的administrator用户或其他具有超级权限的用户下进行。 DTO当前只支持操作系统为CentOS Linux 7.9 64 位、银河麒麟高级服务器操作系统 V10 SP2 64 位 ARM版。 Linux系统安装DTO包(RPM包) DTO软件程序可以部署在物理主机或虚拟机上,在Linux操作系统下安装DTO,用户需要准备适配的操作系统,下文描述以CentOS和RHEL,SUSE及银河麒麟v10系的Linux为例,安装步骤如下: 1. 将DTO安装包上传到服务器,执行dto安装包的安装命令进行安装,命令参考:rpm ivh 包名.rpm。 2. 安装完成后,确认当前DTO版本信息与安装包名的版本是否一致,命令参考:rpm qa grep dto。 3. 查看DTO服务状态,命令参考:systemctl status drdto。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        数据定时灾备
        安装部署
      • 购买
        前提条件: 1、提前开通专属云(计算独享型),并存留足够未分配的计算资源; 2、提前开通VPC、安全组等网络侧资源; 购买操作步骤: 步骤一:登录天翼云账号,切换至专属云(计算独享型)节点; 如已购买了专属云(计算独享型),在控制台的右上角节点区域,可见有独立专属云“dec”标识的节点,选择用户需要进行Kafka购买的专属云节点进入。 图 带专属云“dec”标识的节点如下: 步骤二:进入专属云节点后,在控制台中的产品列表中选择“分布式消息服务”,进入到服务控制台,在左侧菜单栏选择“Kafka专享版”,进入Kafka专享版实例列表页面。 图 专享版Kafka订购入口 步骤三:点击“购买Kafka实例”,进入订购页面,按提示进行相关规格选择与配置。 1)计费方式为“包年包月”; 2)可用区:客户可自行根据资源池多AZ支持情况选择可用区进行创建。 说明:专享版Kafka的实例为集群模式,支持选择1个或者3个及以上可用区。不支持选择2个可用区,选择时需要注意;该可用区选择后不支持更换。 3)实例名称及企业项目:按命名规范自定义,也可以默认系统分配的名称; 4)Kafka版本:当前支持2种版本选择,2.3.0和1.1.0,推荐时间2.3.0版本; 5)CPU架构:当前仅支持“x86计算”,保持默认值即可; 图 购买Kafka订购页 6)选择具体的队列规格类型,在规格的描述与说明中会有该队列的底层资源类型、代理数量、分区上限、消费组数量,供客户与业务系统需求匹配规格。 说明:当前订购规格后,暂不支持规格变更,请在订购时做好业务整体需求评估。 7)选择存储空间:此处有2种存储可以选择,分别是公有云的云硬盘、专属分布式存储。存储的类型均支持高IO、超高IO。 说明:1、选择云硬盘时,具体价格以公有云的云硬盘价格为准; 2、选择转属分布式存储时,需提前已购买了专属云(存储独享型),在“可用存储”右侧的“存储池”列表中进行选择。 3、根据实际需要选择存储Kafka数据的总磁盘大小。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 • 基准带宽为100MB/s时,存储空间取值范围:600GB ~ 90000GB。 • 基准带宽为300MB/s时,存储空间取值范围:1200GB ~ 90000GB。 • 基准带宽为600MB/s时,存储空间取值范围:2400GB ~ 90000GB。 • 基准带宽为1200MB/s时,存储空间取值范围:4800GB ~ 90000GB 图 订购页界面 图 选择云硬盘时存储类别 图 选择专属分布式存储时,需要提前购买专属存储,并在存储池列表中选择 8)选择私有云、安全组; 虚拟私有云可以为您的Kafka专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 虚拟私有云和子网在Kafka专享版实例创建完成后,不支持修改。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 9)设置Kafka Manager的用户名、密码; Kafka Manager是开源的kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 10)选择订购时长; 11)点击“立即购买”之前,还可进入“更多配置”也进行高级配置。 1、SASLSSL开关,开启后则对数据进行加密传输,但会对性能造成下降; 客户端连接Kafka专享版实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 创建实例后,Kafka SASLSSL开关不支持修改,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您需要设置连接Kafka专享版实例的用户名和密码。 2、自动创建Topic,开关开启后,Topic将根据配置API接口自动创建。 选择开启“Kafka自动创建Topic”,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 12)点击“立即购买”,进入支付前规格确认界面。显示详细kafka 实例信息,价格。 13)确认实例信息无误且阅读并同意服务协议后,点击“去支付”进入购买支付环节,完成付款后则开启Kafka创建。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 • 当实例的“状态”变为“运行中”时,说明实例创建成功。 • 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明: 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        计费说明
        购买
      • 将MySQL迁移到PostgreSQL
        操作需知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保数据迁移各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间;请设置serverid值>1。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待迁移数据量的2.5倍。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 当将MySQL5.x迁移到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行迁移。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 将MySQL同步到PostgreSQL
        操作需知 DTS同步过程一般包含四个阶段:预检查阶段、结构同步阶段、全量阶段、增量阶段。为了确保数据同步各个阶段的平顺,在创建同步任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间;请设置serverid值>1。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 当将MySQL5.x同步到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 入门实践
        本文为您介绍多活容灾服务常见的容灾实践,帮助您更好地使用多活容灾服务。 实践 描述 :: 创建命名空间 命名空间是一个逻辑租户的概念,实现对MDR管控配置和数据的逻辑隔离,承载整个多活项目的资源集合,包括了流量入口,多活分区,数据同步,数据监控等内容。用户可以创建多个命名空间,用于逻辑隔离不同的资源。 创建容灾管理中心 在多活容灾服务控制台创建容灾管理中心,容灾管理中心以实例的形式独立运行,所有的操作都是在实例内进行,不同实例间的资源相互隔离。 应用接入 帮助用户将应用接入到已经创建好的云主机中,并可对用户的应用端口和绑定的数据库、存储等资源进行监控告警。 预案编排 用户以预案阶段为单位进行编排,形成完整的预案流程。容灾切换模块中通过关联预案创建容灾演练或应急切换以实现容灾的日常演练或故障发生后的应急响应。 容灾切换 容灾切换包括容灾演练和应急切换。容灾演练旨在确保灾难发生后能够快速恢复业务而进行的一系列的演练任务。应急切换用于灾难发生后为了快速恢复业务而进行的一系列切换或恢复任务,涉及的演练任务来源于相应的预案流程。 同步/纳管资源 在多活容灾服务平台使用资源之前,用户需通过资源管理模块对当前资源进行同步操作,以便MDR侧能够实现统一管理。
        来自:
        帮助文档
        多活容灾服务
        快速入门
        入门实践
      • 功能特性
        本章节介绍了云硬盘备份的常用功能。在使用云硬盘备份之前,建议您先通过本章节了解基本概念,以便更好地理解云硬盘备份提供的功能。 创建磁盘备份/云硬盘粒度的备份 云硬盘备份支持对单块系统盘或数据盘创建备份。首次备份时采用全量备份,后续备份为在全备的基础上进行的增量备份。目前每块磁盘只支持一个全备、多个增量备份。为保证安全和数据一致性,建议在无写操作(如凌晨)时进行磁盘的备份操作。 数据盘备份的恢复 云硬盘备份支持将创建的数据盘备份恢复到源盘上。恢复时,需先停止云主机,并卸载数据盘;恢复后,重新挂载数据盘并启动云主机。如果数据盘做过备份后又执行过扩容操作,仍可以使用原有的备份恢复数据。但因为文件系统的限制,恢复数据后,数据盘容量为未扩容前的容量,建议在扩容后重新做备份,扩容后的数据盘在做备份时仍为增量备份。目前暂不支持系统盘备份的恢复操作。 基于备份创建新的数据盘 创建的磁盘备份不仅可以恢复到源盘中,还可基于该备份创建新的数据盘。创建数据盘时可在创建页面勾选“从备份创建”选项,即将备份数据复制到新盘中。目前基于系统盘备份创建的磁盘仅支持作为数据盘挂载到云主机上。
        来自:
        帮助文档
        云硬盘备份 VBS
        产品简介
        功能特性
      • ClickHouse可视化
        本页面介绍云数据库ClickHouse的可视化工具。 云数据库ClickHouse有许多可视化工具可以帮助您查询、分析和可视化数据。以下是一些常用的云数据库ClickHouse可视化工具: 可视化工具 功能简述 Tabix Tabix是一款功能强大的Web界面工具,提供直观的数据查询和可视化功能。它支持图表、仪表盘、过滤器、导出数据等功能,使您能够轻松地探索和分析云数据库ClickHouse数据。 Metabase Metabase是一款开源的数据分析和可视化工具,可以与云数据库ClickHouse无缝集成。它提供直观的界面和丰富的可视化选项,使您能够创建仪表盘、查询数据、生成报表等。 Superset Superset是一款强大的数据探索和可视化平台,支持多种数据源,包括云数据库ClickHouse。它提供丰富的可视化图表选项、仪表盘和数据切片功能,让您可以轻松地分析和可视化云数据库ClickHouse数据。 Grafana Grafana是一款流行的开源数据可视化和监控工具,它支持多种数据源,包括云数据库ClickHouse。Grafana提供了丰富的图表和仪表盘选项,可帮助您实时监控和可视化云数据库ClickHouse数据。 Redash Redash是一款开源的数据查询和可视化工具,支持多种数据源,包括云数据库ClickHouse。它提供了直观的查询界面和灵活的可视化选项,使您能够以交互方式探索和展示云数据库ClickHouse数据。 这些可视化工具都提供了直观的界面和丰富的功能,可以根据您的需求选择适合的工具来查询、分析和可视化云数据库ClickHouse数据。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        ClickHouse可视化
      • 添加监控视图
        模块 参数 参数说明 取值样例 数据预览 监控项配置 类型 选择单实例/单指标,对应单实例多指标/单指标多实例 单指标 监控项配置 服务 所关注指标对应的服务名称。 云主机 监控项配置 维度 所关注指标的维度名称。 云主机 监控项配置 监控对象 所关注指标对应的监控对象。类型为单指标:可支持一次勾选多个监控对象;类型为单实例:仅支持勾选单个监控对象。 监控项配置 指标 所关注指标的名称。类型为单指标:仅支持勾选单个指标名称;类型为单实例:可支持一次勾选多个指标名称。 CPU使用率 监控项配置 对比 复选环比昨日、同比上周。非必选 基础信息 名称 自定义监控视图名称,2~40个字符 基础信息 图表类型 选择图表类型,包括:折线图/仪表盘/柱状图/表格/饼状图 仪表盘 基础信息 阈值 图表类型选择“仪表盘”时,需定义阈值。当值≥最小值时,图表为绿色;当值 ≤ 最大值时,图表为红色;单值介于最小值及最大值时,图表为橙色
        来自:
        帮助文档
        云监控服务
        用户指南
        监控面板
        添加监控视图
      • 入门指引
        本文主要介绍分布式消息服务RabbitMQ的入门指引。 本文将为您介绍分布式消息服务RabbitMQ入门的基本流程,主要包括控制台创建RabbitMQ实例、使用弹性云主机连接实例的操作,帮助您快速上手RabbitMQ。 操作流程 图1 RabbitMQ使用流程 环境准备 RabbitMQ实例运行于虚拟私有云中,在创建实例前需要确保有可用的虚拟私有云。 创建RabbitMQ实例 在创建实例时,您可以选择是否开启SSL访问,开启后,数据加密传输,安全性更高。同时,SSL开关只能在创建实例时设置,实例创建成功后,不支持修改。 连接实例 客户端连接实例,根据实例是否开启SSL开关,存在以下两种场景:不使用SSL证书连接和使用SSL证书连接。 配置必须的监控告警 配置RabbitMQ实例监控告警策略,监控实际业务运行状态。 说明 关于RabbitMQ的相关概念,请参考
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        入门指引
      • 名词解释
        本章节介绍微服务云应用平台相关名词解释 MSAP 本系统即微服务云应用平台(MicroService Application Platform)的英文简称。 云容器引擎 云容器引擎是天翼云产品,提供高度可扩展的、高性能的Kubernetes集群、一站式容器服务。 ECS 弹性云主机(Elastic Cloud Server)是天翼云产品,可随时获取、弹性扩展,由 CPU、内存、镜像、云硬盘组成,结合多种能力打造安全应用环境,确保服务稳定运行。 应用性能监控 应用性能监控是天翼云产品,帮助您进行应用性能管理。通过无入侵式探针接入的方式,无需您修改代码,就能够对应用进行全方位监控,帮助您快速定位出错接口和慢接口,重现调用参数,发现系统瓶颈,从而大幅提升线上问题诊断的效率。 微服务治理中心 微服务治理中心是天翼云微服务引擎的子产品,兼容SpringCloud、Dubbo等开源微服务框架,支持无侵入的接入应用,提供标签路由、灰度发布、无损上下线、服务降级、服务鉴权等服务治理的能力。。 注册配置中心 注册配置中心是天翼云微服务引擎的子产品,面向业界主流开源微服务项目,致力于帮助用户发现、配置和管理微服务,实现动态服务发现、服务配置、服务元数据及流量管理等功能,通过微服务注册配置中心,您可以更敏捷、更简单地构建、交付和管理微服务平台。
        来自:
        帮助文档
        微服务云应用平台
        产品简介
        名词解释
      • 1
      • ...
      • 87
      • 88
      • 89
      • 90
      • 91
      • ...
      • 699
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      模型推理服务

      应用托管

      科研助手

      一站式智算服务平台

      推荐文档

      创建程序包

      加入会议

      VPC安全组删除规则

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号