云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式关系型数据库_相关内容
      • 使用MirrorMaker跨集群数据同步
        验证数据是否同步 1、 在目标集群中查看Topic列表,确认是否有源集群Topic。 说明 目标集群中的Topic名称和源集群相比,多了前缀(如A.),这属于正常情况,是MirrorMaker 2为了防止Topic循环备份进行的设置。 2、 在源集群生产并消费消息,在目标集群查看消费进度,确认数据是否已从源集群同步到了目标集群。 如果目标集群为Kafka实例的话,在分布式消息服务Kafka控制台的“消费组管理 > 消费进度”中,查看消费进度。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        使用MirrorMaker跨集群数据同步
      • 导出实例列表
        DCS管理控制台支持全量导出缓存实例信息功能,导出形式为Excel。 操作步骤 1. 登录分布式缓存服务管理控制台。 2. 在管理控制台左上角单击,选择区域和项目。 3. 单击左侧菜单栏的“缓存管理”。 4. 设置筛选条件,查询对应的DCS缓存实例。 5. 单击信息栏右上侧的按钮,导出缓存实例列表。 页面左下角显示导出的结果,单击可查看导出的实例信息。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例日常操作
        导出实例列表
      • 告警通知
        配置项 说明 数据库类型 选择数据库类型,支持Oracle、SQLServer、DB2、MySQL。 数据库名称/SID 如果是Oracle数据库,请输入SID;其他数据库请输入数据库名称。 用户名 填写数据库的用户名。 密码 填写数据库的密码。 域名或者IP 填写数据库的域名或数据库的IP。 端口 填写数据库的端口。 参数顺序 可选“先手机号码,后短信内容”或“先短信内容,后手机号码”。 插入SQL模板 可使用两个参数(1.手机号码,2.短信内容),用?表示,顺序可在“参数顺序”中设置。 例:insertintoMSG(count,phonenum,content,prioni ty) values(1,?,?,1) 注意事项:1.语句最后不用加分号“;”。 编码方式 默认UTF8,可选GBK。 调用方式 可选Insert语句或者存储过程。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        通知发送
        告警通知
      • 文档数据库服务开发建议
        本页介绍了文档数据库服务开发建议。 开发规范与建议 使用适当的安全措施:在使用MongoDB时,需要使用适当的安全措施来保护数据库。例如,使用访问控制、SSL加密、身份验证等方式来确保数据库的安全性。 优化查询性能:在查询MongoDB数据库时,需要优化查询性能,以便快速地检索所需的数据。可以使用索引、限制返回字段、使用游标等方式来提高查询性能。 设计优化的数据模型:在设计MongoDB数据库时,需要考虑数据模型的性能和可扩展性。使用嵌入式文档结构可以提高查询性能和减少数据访问的次数。此外,需要根据应用程序的需求来设计适当的索引,以便快速地访问数据。 数据库连接方式 推荐使用连接串方式。 示例: 连接串方式: mongo mongodb://@ip1:8030,ip2:8030/admin?authSource&replicaSetDDS
        来自:
        帮助文档
        文档数据库服务
        用户指南
        文档数据库服务使用建议
        文档数据库服务开发建议
      • 数据库表名是否区分大小写?
        本文介绍数据库表名是否区分大小写。 库表名称不区分大小写。
        来自:
        帮助文档
        分布式关系型数据库
        常见问题
        MySQL相关类
        数据库表名是否区分大小写?
      • 云审计服务支持的RocketMQ操作列表
        本页面主要介绍分布式消息服务RocketMQ对接的云审计服务使用和查看方法。 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: ● 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 ● 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 使用限制 ● 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。 ● 用户通过云审计能查询到多久前的操作事件:7天。 ● 用户操作后多久可以通过云审计查询到数据:5分钟。 ● 其它限制请参考使用限制云审计。 操作步骤 1. 开通云审计服务。 参见开通云审计服务云审计。 2. 查看云审计事件。 参见查看审计事件云审计。 3. 在事件列表中,选择事件来源为“容器与中间件”,资源类型选择“分布式消息服务Kafka”,上方时间选择需要筛选的时间段。点击查询即可。 4. 在审计事件右侧点击详情,可以看到更详细的事件信息。 更多云审计相关使用说明和常见问题请参考用户指南、常见问题。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的RocketMQ操作列表
      • 使用限制
        介绍分布式消息服务RocketMQ功能使用限制。 参数限制 RocketMQ是一个高性能、高可靠、可伸缩的分布式消息队列系统,但也有一些使用限制需要注意。以下是一些常见的RocketMQ使用限制: 限制项 限制说明 topic名字 限制2到64个字符,超过限制会导致创建主题失败,用户创建主题只能包含大小写字母数字以及和符号。 group名字 限制2到64个字符,超过限制会导致创建订阅组失败,用户创建订阅组只能包含大小写字母数字以及和符号。 AccessKey 高级版引擎在角色管理中创建AccessKey只能包含大小写字母数组以及符号,长度限制必须大于6个字符小于64个字符。 SecretKey 高级版引擎角色管理创建SecretKey必须包含大小写字母数字以及以下特殊符号:!@ $%,长度限制必须大于8位小于64个字符。 延时消息的发送时间点 最大支持40天的延时时间点,超过40天将发送失败。 消息大小 普通消息和顺序消息大小限制4MB,延时消息消息大小限制16KB,超过限制会导致消息发送失败。 消息存储时长 消息存储时长限制默认为7天,超过最长存储时间的消息会被删除。 资源配额 限制项 限制说明 单地域实例数 实例总数不超过100个。 单代理TPS 由购买的实例规格决定,具体限制值,请参见实例规格限制。 单代理Topic数量 由购买的实例规格决定,具体限制值,请参见实例规格限制。 单代理消费组数量 由购买的实例规格决定,具体限制值,请参见实例规格限制。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        使用限制
      • 大Key和热Key分析
        分布式缓存支持分析实例中的占用空间较大的大key和访问频率较高的热key。 说明 大key和热key分析需要消耗CPU资源,建议在业务低峰时段执行大Key和热Key分析。 前提条件 已成功开通分布式缓存服务Redis实例,且实例处于运行中状态。 进行热key分析时,需 在实例配置中,将maxmemorypolicy修改成volatilelfu,参考修改修改实例配置参数。 大key和热key的定义 参数 说明 大Key Redis中存储的value可以分为两类,一类是String类型的元素,一类是集合元素,根据这两类,通过大Key可分为以下两种情况: String类型的value,值超过1 MB 集合类型的value,成员数超过3000 热Key 热Key是指在一段时间内,某个Key的访问量显著高于其他Key,形成访问热点。 例如:实例每秒处理请求10000次,而其中某一个Key的访问量达到每秒3000次。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情页面。 4. 左侧菜单点击CloudDBA>TOP KEY分析,进入TOP KEY分析界面。 5. 点击实时Tab页,点击立即分析,即可立即分析展示大key和热key的分析结果。 6. 点击历史Tab页,勾选TOP KEY自动扫描,可搜索历史的大key和热key。 注意 勾选TOP KEY自动扫描对业务量大的场景可能会有性能影响。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例诊断分析
        大Key和热Key分析
      • 管理死信队列
        导出死信消息 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“死信队列”,进入“死信队列”页面。 4. 在待导出的死信消息所在行,单击“导出消息”。 导出JSON格式的文件。 说明:如果需要批量导出死信消息,勾选待导出的多条死信消息,单击“批量导出消息”。 导出的消息字段说明如表1所示。 表1 消息字段说明 消息字段 字段说明 msgid 消息ID。 instanceid 实例ID。 topic Topic名称。 storetimestamp 存储消息的时间。 borntimestamp 产生消息的时间。 reconsumetimes 重试次数。 body 消息体。 bodycrc 消息体校验和。 storesize 存储大小。 propertylist 消息属性列表。lname:属性名称。lvalue:属性值。 bornhost 产生消息的主机IP。 storehost 存储消息的主机IP。 queueid 队列ID。 queueoffset 在队列中的偏移量。 重新投递死信消息 死信消息由于某些原因无法正常被消费者消费,请排查相关原因并解决,然后在控制台重新投递死信消息给消费者消费。 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“死信队列”,进入“死信队列”页面。 4. 选择以下任意一种方法重新投递死信消息。 在待重新投递的死信消息所在行,单击“重投”。 如需批量重新投递死信消息,勾选待重新投递的死信消息,单击“批量重投”。 须知: 死信消息重新投递成功后,此死信消息依然存在死信队列中,不会被删除。避免多次重复投递,造成重复消费。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        管理死信队列
      • 如何提高消息处理效率
        介绍分布式消息服务Kafka 如何提高消息处理效率。 要提高Kafka的消息处理效率,可以考虑以下几个方面: 分区和副本设置:合理设置分区和副本数量,可以提高并行处理能力和容错性。较大的分区数可以增加并行处理的能力,而较多的副本数可以提高数据的冗余和可用性。 优化消息生产者:在消息生产者端,可以采取一些措施来提高效率。例如,使用批量发送来减少网络开销,使用异步发送来提高吞吐量,设置适当的缓冲区大小来避免频繁的IO操作等。 优化消息消费者:在消息消费者端,可以通过增加消费者实例来提高并行处理能力。同时,可以使用多线程或多进程方式来并行处理消息,提高处理效率。 合理设置Kafka参数:根据实际情况,可以调整Kafka的一些参数来提高性能。例如,调整消息的最大大小、网络缓冲区大小、批量发送的大小等。 使用分区和消费者组:合理使用分区和消费者组可以提高消息的负载均衡和并行处理能力。分区可以将消息分散到多个消费者实例上,而消费者组可以将消息分发给不同的消费者组成的消费者实例。 监控和调优:定期监控Kafka集群的性能指标,如吞吐量、延迟等,并进行调优。可以通过调整参数、增加资源、优化代码等方式来提高性能。 总之,提高Kafka的消息处理效率需要综合考虑多个因素,包括分区和副本设置、优化生产者和消费者、调整参数、硬件优化等。根据实际情况进行优化,可以提高Kafka的性能和吞吐量。 对使用分布式消息服务kafka的生产者和消费者有如下的使用建议:
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        如何提高消息处理效率
      • 应用场景
        本节主要介绍分布式消息服务Kafka常用的应用场景 分布式消息服务Kafka主要适用于以下几种场景: 日志收集 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦。 支持实时在线分析系统和类似于 Hadoop 的离线分析系统。 Kafka本身的性能是非常高效的,同时Kafka的特性决定它非常适合作为"日志收集中心",这是因为Kafka在采集日志的时候业务是无感知的,其能够兼容自己的上游,能够直接地通过配置加密消息。当日志数据发送到Kafka集群里面,其实对于业务而言是完全无侵入的。同时其在下游又能够直接地对接Hadoop/ODPS等离线仓库存储和Strom/Spark等实现实时在线分析。在这样的情况之下,使用Kafka,只需要用户去关注整个流程里面的业务逻辑,而无需做更多的开发就能够实现统计、分析以及报表。 流计算处理 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦。 通过支持流计算引擎,可对接开源 Storm/Samza/Spark 流计算引擎。 Kafka能够做到流计算处理,比如股市走向分析、气象数据测控、网站用户行为分析等领域,由于在这些领域中数据产生快、实时性强、数据量大,所以很难统一采集并入库存储后再做处理,这便导致传统的数据处理架构不能满足需求。而Kafka Stream以及Storm/Samza/Spark等流计算引擎的出现,可以根据业务需求对数据进行计算分析,最终把结果保存或者分发给需要的组件。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        应用场景
      • 备份与恢复说明
        本节介绍如何通过分布式缓存Redis管理控制台对实例进行数据备份与数据恢复 为什么需要备份缓存数据 避免系统故障带来的数据丢失风险:计算机系统可能会出现小概率的硬件故障、软件错误或其他技术问题,导致数据丢失或损坏。如果缓存数据没有备份,系统故障时可能无法还原丢失的数据,这可能会对业务造成重大影响。通过备份缓存数据,可以提供一种保护机制,以防止系统故障引起的数据丢失。 保持数据完整性:缓存数据通常用于提高系统性能和响应速度,但并不是所有数据都被实时写入到永久存储介质中。如果缓存数据没有备份,在某些小概率情况下,数据可能会因为系统故障或其他问题而丢失,导致数据的完整性受到威胁。备份缓存数据可以提供额外的数据保护层,确保数据的完整性和可用性。 容灾和恢复:备份缓存数据是一种常见的容灾和恢复策略。在灾难事件发生时备份缓存数据可以用于快速恢复系统,并尽量减少服务中断时间。备份还可以用于数据迁移、系统升级或其他维护操作。 备份方式 天翼云分布式缓存服务Redis提供自动备份与手动备份两种策略。 自动备份 Redis 支持在管理控制台中设置定时自动备份策略,可根据实际需求设置备份周期与备份时段(备份周期以天为单位)。在指定的备份时段,Redis 实例的缓存数据将会自动备份并存储。可按实际业务设置适当的备份频率。具体操作请参考自动备份实例数据。 自动备份可让您购买的的Redis实例始终拥有一个完整的数据副本,在必要时可以及时恢复实例数据,保证数据的完整性。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例备份恢复管理
        备份与恢复说明
      • 创建Topic
        本节主要介绍分布式消息服务Kafka的创建Topic说明 背景信息 Kafka的主题(Topic)是对消息进行分类和组织的概念。主题是Kafka中最基本的逻辑单元,用于区分不同类型的消息。 每个主题可以有多个分区(Partition),每个分区都是一个有序的消息日志。分区允许消息在集群中进行并行处理,提高了吞吐量和并发性能。 主题的特点包括: 逻辑分类:主题可以根据业务需求或数据类型进行逻辑分类,例如订单主题、日志主题、用户行为主题等。 多分区:主题可以被分成多个分区,每个分区都有自己的消息顺序。分区可以在不同的节点上进行存储和处理,实现了水平扩展和负载均衡。 副本复制:每个分区可以有多个副本(Replica),副本用于提供高可用性和容错性。副本可以分布在不同的节点上,当节点故障时可以自动进行故障转移。 持久化存储:主题中的消息被持久化存储在磁盘上,确保消息的可靠性和持久性。消费者可以随时消费主题中的历史消息,而不仅仅是最新的消息。 通过使用主题,Kafka能够有效地组织和管理大规模的消息流。主题的分区和副本机制提供了高可用性和容错性,使得Kafka成为处理大规模实时数据流的理想选择。 前提条件 已购买并部署分布式消息服务Kafka 操作步骤 创建Topic (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后、点击“创建Topic”。 (5)点击“创建Topic”后,输入Topic名称、分区数等参数。 (6)创建好Topic后,可以点击“更多”按钮中的“生产消息”来测试其是否正常。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        创建Topic
      • 计费模式
        本节主要介绍分布式缓存服务Redis版的计费模式 目前天翼云分布式缓存服务Redis版提供包周期(包年/包月)、按需2种计费模式供您灵活选择,使用越久越便宜。 包周期(包年/包月):天翼云提供包月和包年的购买模式。这种购买方式相对于按需付费则能够提供更大的折扣,对于长期使用者,推荐该方式。包周期计费按照订单的购买周期来进行结算。 按需计费:这种购买方式比较灵活,可以即开即停,支持秒级计费。实例从“开通”开启计费到“删除”结束计费,按实际购买时长(精确到秒)计费。 下表列出两种模式的区别: 计费模式 包年/包月 按需计费 付费方式 预付费按照订单的购买周期结算。 后付费按照云服务器实际使用时长计费。 计费周期 按订单的购买周期计费。 按小时结算。 实例升级 支持扩容,工单施工完生效,但是施工过程中服务不可用;不支持缩容。 支持扩容,工单施工完生效,但是施工过程中服务不可用;不支持缩容。 更改计费模式 支持变更为按需资源。 支持变更为包周期资源。 变更规格 支持变更实例规格。 支持变更实例规格。 适用场景 适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。对于长期使用者,推荐该方式。 适用于消息资源需求波动的场景,可以随时开通,随时删除。 包周期与按需计费方式之间可以进行转换,具体操作请参考包周期与按需互转。
        来自:
        帮助文档
        分布式缓存服务Redis版
        计费说明
        计费模式
      • 查看流控监控
        本文主要介绍 查看流控监控。 本章节指导您在控制台查看每个代理上用户/客户端/Topic的流控使用量。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控监控”,进入流控监控页面。 步骤 6 设置查询流控的参数。 表查询流控的参数说明 参数 说明 :: 统计方式 设置流控的统计方式。 前n个:统计带宽使用量排名前x 个的用户/客户端/Topic,x由您自行输入 带宽速率:统计带宽速率大于x MB/s的用户/客户端/Topic,x由您自行输入 带宽使用量:统计带宽使用量超过x %的用户/客户端/Topic,x由您自行输入 统计类型 设置流控的统计类型。 生产:统计生产消息的流控 消费:统计消费消息的流控 统计维度 设置流控的统计维度。 User/Client:统计用户/客户端的流控 Topic:统计Topic的流控 图 查询流控的参数 步骤 7 单击“查询”,查看每个代理上用户/客户端/Topic的流控使用量。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        查看流控监控
      • 创建流控
        创建Topic流控 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在页面顶端单击“Topic”,进入“Topic”页签。 步骤 7 在页面左上角单击“创建流控”,弹出“创建流控”对话框。 步骤 8 设置流控参数。 表 流控参数说明 参数名称 说明 Topic名称 输入指定Topic名称,对此Topic进行流控。流控创建完后,无法修改“Topic名称”。 生产上限速率 设置生产上限速率,单位为MB/s。为空时,表示不设置速率。 消费上限速率 设置消费上限速率,单位为MB/s。为空时,表示不设置速率。 说明 “生产上限速率”和“消费上限速率”不可同时为空。 步骤 9 单击“确定”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示流控创建成功。 进入“流控管理 > 流控列表”页面,在“Topic”页签中,在页面右上角的搜索框中输入新创建的流控名称,单击,查看新创建的流控。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        创建流控
      • 重置SASL_SSL密码
        本文主要介绍重置SASLSSL密码。 操作场景 在“用户管理”页签创建的SASLSSL用户,如果忘记了SASLSSL密码,通过重置SASLSSL密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 如果忘记了创建实例时设置的SASLSSL密码,请参考重置Kafka密码,重置密码。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置SASLSSL密码。 只有处于“运行中”状态的Kafka实例支持重置SASLSSL密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击待重置SASLSSL密码的Kafka实例名称,进入实例详情页面。 步骤 5 在“用户管理”页签,在待重置SASLSSL密码的用户所在行,单击“重置密码”。 步骤 6 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        SASL_SSL用户管理
        重置SASL_SSL密码
      • 修改同步复制和同步落盘
        本文主要介绍修改同步复制和同步落盘。 同步复制指后端收到生产消息请求并复制给所有副本后,才返回客户端。 同步落盘指生产的每条消息都会立即写入磁盘。 开启:生产的每条消息都会立即写入磁盘,可靠性更高。 关闭:生产的消息存在内存中,不会立即写入磁盘。 本章节指导您在控制台修改同步复制和同步落盘。 说明 修改同步复制/同步落盘,不会重启实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改同步复制和同步落盘。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改同步复制和同步落盘的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,开启或关闭同步复制和同步落盘,单击“确定”。 开启:单击。 关闭:单击。 说明 当副本数为1时,不能开启同步复制功能。 开启同步复制后,需要在客户端配置acksall或者1,否则无效。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改同步复制和同步落盘
      • 重置Kafka密码
        本文主要介绍 重置Kafka密码。 操作场景 如果您忘记了创建实例时设置的SASLSSL密码,通过重置Kafka密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置Kafka密码。 只有处于“运行中”状态的Kafka实例支持重置Kafka密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重置Kafka密码。 在需要重置Kafka密码的Kafka实例右侧,单击“更多 > 重置Kafka密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,在“连接信息 > 用户名”后,单击“重置密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“用户管理”页签,在待重置Kafka密码的用户所在行,单击“重置密码”,弹出重置Kafka密码对话框。 步骤 5 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重置Kafka密码
      • 云审计服务支持的RabbitMQ操作列表
        本章节主要介绍云审计服务支持的分布式消息服务RabbitMQ操作列表。 通过云审计服务,您可以记录与分布式消息服务RabbitMQ相关的操作事件,便于日后的查询、审计和回溯。 表1 云审计服务支持的RabbitMQ操作列表 操作名称 资源类型 事件名称 删除后台任务成功 rabbitmq deleteDMSBackendJobSuccess 删除后台任务失败 rabbitmq deleteDMSBackendJobFailure 创建DMS实例订单成功 rabbitmq createDMSInstanceOrderSuccess 创建DMS实例订单失败 rabbitmq createDMSInstanceOrderFailure 修改DMS实例订单成功 rabbitmq modifyDMSInstanceOrderSuccess 修改DMS实例订单失败 rabbitmq modifyDMSInstanceOrderFailure 扩容实例成功 rabbitmq extendDMSInstanceSuccess 扩容实例失败 rabbitmq extendDMSInstanceFailure 重置DMS实例密码成功 rabbitmq resetDMSInstancePasswordSuccess 重置DMS实例密码失败 rabbitmq resetDMSInstancePasswordFailure 删除创建失败的DMS实例成功 rabbitmq deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败 rabbitmq deleteDMSCreateFailureInstancesFailure 重启DMS实例成功 rabbitmq restartDMSInstanceSuccess 重启DMS实例失败 rabbitmq restartDMSInstanceFailure 批量删除DMS实例成功 rabbitmq batchDeleteDMSInstanceSuccess 批量删除DMS实例失败 rabbitmq batchDeleteDMSInstanceFailure 批量重启DMS实例成功 rabbitmq batchRestartDMSInstanceSuccess 批量重启DMS实例失败 rabbitmq batchRestartDMSInstanceFailure 修改DMS实例信息成功 rabbitmq modifyDMSInstanceInfoSuccess 修改DMS实例信息失败 rabbitmq modifyDMSInstanceInfoFailure 批量删除DMS实例任务 rabbitmq batchDeleteDMSInstanceTask 解冻DMS实例任务成功 rabbitmq unfreezeDMSInstanceTaskSuccess 解冻DMS实例任务失败 rabbitmq unfreezeDMSInstanceTaskFailure 冻结DMS实例任务成功 rabbitmq freezeDMSInstanceTaskSuccess 冻结DMS实例任务失败 rabbitmq freezeDMSInstanceTaskFailure 删除DMS实例任务成功 rabbitmq deleteDMSInstanceTaskSuccess 删除DMS实例任务失败 rabbitmq deleteDMSInstanceTaskFailure 创建DMS实例任务成功 rabbitmq createDMSInstanceTaskSuccess 创建DMS实例任务失败 rabbitmq createDMSInstanceTaskFailure 扩容DMS实例任务成功 rabbitmq extendDMSInstanceTaskSuccess 扩容DMS实例任务失败 rabbitmq extendDMSInstanceTaskFailure 重启DMS实例任务成功 rabbitmq restartDMSInstanceTaskSuccess 重启DMS实例任务失败 rabbitmq restartDMSInstanceTaskFailure 批量重启DMS实例任务成功 rabbitmq batchRestartDMSInstanceTaskSuccess 批量重启DMS实例任务失败 rabbitmq batchRestartDMSInstanceTaskFailure 修改DMS实例信息任务成功 rabbitmq modifyDMSInstanceInfoTaskSuccess 修改DMS实例信息任务失败 rabbitmq modifyDMSInstanceInfoTaskFailure
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的RabbitMQ操作列表
      • 对象列表
        本文介绍库/模式的下级对象——表、集合与可编程对象页面的功能。 前提条件 登录用户对该实例具有查看及更高权限。 需要先登录当前实例。 操作步骤 MySQL数据库 1. 登录数据管理服务。 2. 从左侧菜单 数据资产 >实例管理 进入到实例列表页面。 3. 点击目标实例操作菜单栏的 库列表 按钮,进入到数据库管理页面。 4. 在数据库列表操作菜单点击 对象列表 按钮,进入对象列表管理页面。 5. 点击“同步元数据”按钮,获取数据库实时的元数据信息。 PostgreSQL数据库 1. 登录数据管理服务。 2. 从左侧菜单 数据资产 >实例管理 进入到实例列表页面。 3. 点击目标实例操作菜单栏的 库列表 按钮,进入到数据库管理页面。 4. 在数据库列表操作菜单栏的 模式列表 按钮,进入到模式列表管理页面。 5. 在模式列表操作菜单点击 对象列表 按钮,进入对象列表管理页面。 6. 点击“同步元数据”按钮,获取数据库实时的元数据信息。 SQLServer数据库 1. 登录数据管理服务。 2. 从左侧菜单 数据资产 >实例管理 进入到实例列表页面。 3. 点击目标实例操作菜单栏的 库列表 按钮,进入到数据库管理页面。 4. 在数据库列表操作菜单点击 对象列表 按钮,进入对象列表管理页面。 5. 点击“同步元数据”按钮,获取数据库实时的元数据信息。 DRDS数据库 1. 登录数据管理服务。 2. 从左侧菜单 数据资产 >实例管理 进入到实例列表页面。 3. 点击目标实例操作菜单栏的 库列表 按钮,进入到数据库管理页面。 4. 在数据库列表操作菜单点击 对象列表 按钮,进入对象列表管理页面。 5. 点击“同步元数据”按钮,获取数据库实时的元数据信息。 MongoDB/DDS数据库 1. 登录数据管理服务。 2. 从左侧菜单 数据资产 >实例管理 进入到实例列表页面。 3. 点击目标实例操作菜单栏的 库列表 按钮,进入到数据库管理页面。 4. 在数据库列表操作菜单点击 对象列表 按钮,进入对象列表管理页面。 5. 点击“同步元数据”按钮,获取数据库实时的元数据信息。 ClickHouse数据库 1. 登录数据管理服务。 2. 从左侧菜单 数据资产 >实例管理 进入到实例列表页面。 3. 点击目标实例操作菜单栏的 库列表 按钮,进入到数据库管理页面。 4. 在数据库列表操作菜单点击 对象列表 按钮,进入对象列表管理页面。 5. 点击“同步元数据”按钮,获取数据库实时的元数据信息。 Oracle数据库 1. 登录数据管理服务。 2. 从左侧菜单 数据资产 >实例管理 进入到实例列表页面。 3. 点击目标实例操作菜单栏的 库列表 按钮,进入到数据库管理页面。 4. 在数据库列表操作菜单点击 对象列表 按钮,进入对象列表管理页面。 5. 点击“同步元数据”按钮,获取数据库实时的元数据信息。 对象列表可管理以下数据库对象: 对象 说明 表 支持新建表、编辑、删除等操作。 集合 支持新建集合、删除等操作。 视图 支持视图的新建、编辑、删除等操作。 存储过程 支持存储过程的新建、编辑、删除等操作。 函数 支持函数的新建、编辑、删除等操作。 触发器 支持触发器的新建、编辑、删除等操作。 事件 支持事件的新建、编辑、删除等操作,仅存在于MySQL系列数据库。 触发器函数 支持触发器的新建、编辑、删除等操作,仅存在于PostgreSQL系列数据库。 序列 支持触发器的新建、编辑、删除等操作,仅存在于PostgreSQL系列数据库。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        对象列表
      • RocketMQ PHP SDK
        说明 分布式消息服务RocketMQ兼容了社区版 HTTP SDK,您可以使用社区版 HTTP SDK接入分布式消息服务RocketMQ。 前提条件: 1. 在PHP安装目录下的composer.json文件中加入社区PHP SDK 依赖。 2. 使用Composer安装依赖。 composer install 发送普通消息 client new MQClient( // 填写分布式消息服务RocketMQ控制台HTTP接入点 "${HTTPENDPOINT}", // 填写AccessKey,在管理控制台创建 "${ACCESSKEY}", // 填写SecretKey 在管理控制台创建 "${SECRETKEY}" ); // 所属的 Topic $topic "${TOPIC}"; // Topic所属实例ID,默认实例为空NULL $instanceId "${INSTANCEID}"; $this>producer $this>client>getProducer($instanceId, $topic); } public function run() { try { for ($i 1; $i putProperty("a", $i); // 设置消息KEY $publishMessage>setMessageKey("MessageKey"); $result $this>producer>publishMessage($publishMessage); print "Send mq message success. msgId is:" . $result>getMessageId() . ", bodyMD5 is:" . $result>getMessageBodyMD5() . "n"; } } catch (Exception $e) { printr($e>getMessage() . "n"); } }}$instance new NormalProducerExample();$instance>run();?> 消费普通消息 client new MQClient( // 填写分布式消息服务RocketMQ控制台HTTP接入点 "${HTTPENDPOINT}", // 填写AccessKey,在管理控制台创建 "${ACCESSKEY}", // 填写SecretKey 在管理控制台创建 "${SECRETKEY}" ); // 所属的 Topic $topic "${TOPIC}"; // 您在控制台创建的 Consumer ID(Group ID) $groupId "${GROUPID}"; // Topic所属实例ID,默认实例为空NULL $instanceId "${INSTANCEID}"; $this>consumer $this>client>getConsumer($instanceId, $topic, $groupId, "TagA"); } public function run() { // 在当前线程循环消费消息,建议是多开个几个线程并发消费消息 while (True) { try { // 长轮询消费消息 // 长轮询表示如果topic没有消息则请求会在服务端挂住3s,3s内如果有消息可以消费则立即返回 $messages $this>consumer>consumeMessage( 3, // 一次最多消费3条(最多可设置为16条) 3 // 长轮询时间3秒(最多可设置为30秒) ); } catch (MQExceptionMessageResolveException $e) { // 当出现消息Body存在不合法字符,无法解析的时候,会抛出此异常。 // 可以正常解析的消息列表。 $messages $e>getPartialResult()>getMessages(); // 无法正常解析的消息列表。 $failMessages $e>getPartialResult()>getFailResolveMessages(); $receiptHandles array(); foreach ($messages as $message) { // 处理业务逻辑。 $receiptHandles[] $message>getReceiptHandle(); printf("MsgID %sn", $message>getMessageId()); } foreach ($failMessages as $failMessage) { // 处理存在不合法字符,无法解析的消息。 $receiptHandles[] $failMessage>getReceiptHandle(); printf("Fail To Resolve Message. MsgID %sn", $failMessage>getMessageId()); } $this>ackMessages($receiptHandles); continue; } catch (Exception $e) { if ($e instanceof MQExceptionMessageNotExistException) { // 没有消息可以消费,接着轮询 printf("No message, contine long polling!RequestId:%sn", $e>getRequestId()); continue; } printr($e>getMessage() . "n"); sleep(3); continue; } print "consume finish, messages:n"; // 处理业务逻辑 $receiptHandles array(); foreach ($messages as $message) { $receiptHandles[] $message>getReceiptHandle(); printf("MessageID:%s TAG:%s BODY:%s nPublishTime:%d, FirstConsumeTime:%d, nConsumedTimes:%d, NextConsumeTime:%d,MessageKey:%sn", $message>getMessageId(), $message>getMessageTag(), $message>getMessageBody(), $message>getPublishTime(), $message>getFirstConsumeTime(), $message>getConsumedTimes(), $message>getNextConsumeTime(), $message>getMessageKey()); printr($message>getProperties()); } // $message>getNextConsumeTime()前若不确认消息消费成功,则消息会重复消费 // 消息句柄有时间戳,同一条消息每次消费拿到的都不一样 printr($receiptHandles); try { $this>ackMessages($receiptHandles); } catch (Exception $e) { if ($e instanceof MQExceptionAckMessageException) { // 某些消息的句柄可能超时了会导致确认不成功 printf("Ack Error, RequestId:%sn", $e>getRequestId()); foreach ($e>getAckMessageErrorItems() as $errorItem) { printf("tReceiptHandle:%s, ErrorCode:%s, ErrorMsg:%sn", $errorItem>getReceiptHandle(), $errorItem>getErrorCode(), $errorItem>getErrorCode()); } } } print "ack finishn"; } } public function ackMessages($receiptHandles) { try { $this>consumer>ackMessage($receiptHandles); } catch (Exception $e) { if ($e instanceof MQExceptionAckMessageException) { // 某些消息的句柄可能超时,会导致消费确认失败。 printf("Ack Error, RequestId:%sn", $e>getRequestId()); foreach ($e>getAckMessageErrorItems() as $errorItem) { printf("tReceiptHandle:%s, ErrorCode:%s, ErrorMsg:%sn", $errorItem>getReceiptHandle(), $errorItem>getErrorCode(), $errorItem>getErrorCode()); } } } }}$instance new ConsumerExample();$instance>run();?>
        来自:
        帮助文档
        分布式消息服务RocketMQ
        SDK参考
        RocketMQ PHP SDK
      • 实例生命周期
        本章节介绍数据库复制的实例生命周期。 数据库复制的生命周期管理包括启动创建中、配置、启动中、结束任务等。此功能适用于所有节点。 数据库复制状态说明 实时迁移 提供了多种任务状态,以便区分不同阶段的迁移任务。 数据实时迁移任务的状态和说明,请参见下表 状态 说明 创建中 正在创建数据库复制服务需要用到的迁移实例。 创建任务失败 创建实时迁移实例失败。 配置 迁移实例创建成功,但还没有启动任务,可以继续配置任务。 冻结 账户余额小于或等于0元,系统对该用户下的实例进行冻结。 等待启动 已经下发了定时启动迁移任务到迁移实例上,等待迁移实例启动任务。 启动中 正在启动迁移任务。 启动失败 实时迁移任务启动失败。 全量迁移 正在进行源数据库到目标数据库的全量迁移任务。 全量迁移失败 实时迁移任务全量迁移失败。 增量迁移 持续进行从源数据库到目标数据库的增量数据迁移。 增量迁移失败 增量数据迁移失败。 故障恢复 迁移实例发生故障,系统自动恢复迁移任务。 结束任务 释放执行迁移任务所使用的迁移实例和资源。 结束任务失败 释放迁移任务所使用的迁移实例和资源失败。 已结束 释放迁移任务所占迁移实例成功。
        来自:
        帮助文档
        数据库复制
        计费说明
        实例生命周期
      • 数据切分策略
        切分原则 分表分库虽然能解决大表对数据库系统的压力,但它并不是万能的,也有一些不利之处,因此首要问题为:分不分库,分哪些库,什么规则分,分多少分片。 原则一 分片数量尽量少,分片尽量均匀分布在多个DataHost 上,因为一个查询SQL 跨分片越多,则总体性能越差,虽然要好于所有数据在一个分片的结果,只在必要的时候进行扩容,增加分片数量。 原则二 能不分片就不分片,800万以内的表,不建议分片,通过合适的索引,读写分离等方式,可以很好的解决性能问题。 原则三 不到800 万但跟大表(超800 万的表)有关联查询的表也要拆分,在此称为大表关联表。大表关联表如何拆:小于100 万的使用全局表;大于100 万小于800 万跟大表使用同样的拆分策略;无法跟大表使用相同规则的,可以考虑从java 代码上分步骤查询,不用关联查询,或者破例使用全局表。 原则四 破例的全局表(例如itemsku 表250万行数据),跟大表关联了,又无法跟大表使用相同拆分策略,也做成了全局表。破例的全局表必须满足的条件:没有太激烈的并发update,如多线程同时update 同一条id1 的记录。虽有多线程update,但不是操作同一行记录的不在此列。多线程update 全局表的同一行记录会死锁,批量insert 没问题。 原则五 拆分字段只能是一个字段,如果想按照两个字段拆分,必须新建一个冗余字段,冗余字段的值使用两个字段的值拼接而成(如大区+年月拼成zoneyyyymm 字段)。 原则六 分片规则需要慎重选择,分片规则的选择,需要考虑数据的增长模式,数据的访问模式,分片关联性问题,分片扩容问题以及数据热点问题。 原则七 分片规则的选择问题,如果某个表的数据有明显的时间特征,比如订单、交易记录等,则他们通常比较合适用时间范围分片,因为具有时效性的数据,我们往往关注其近期的数据,查询条件中往往带有时间字段进行过滤,比较好的方案是,当前活跃的数据,采用跨度比较短的时间段进行分片,而历史性的数据,则采用比较长的跨度存储。总体上来说,分片的选择是取决于最频繁查询SQL 的条件。
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        SQL调优指南
        数据切分策略
      • 实例说明
        本节介绍了云数据库TaurusDB的实例说明。 数据库实例规格 表 X86性能规格 规格 vCPU(个) 内存(GB) ::: 独享版 2 16 独享版 4 32 独享版 8 64 独享版 16 128 独享版 32 256 独享版 64 512 数据库实例规格请以实际环境为准。 说明 可通过调整maxconnections参数值来修改最大连接数。具体操作请参见编辑参数模板 数据库实例状态 数据库实例状态 数据库实例状态是数据库实例的运行情况。用户可以使用管理控制台查看数据库实例状态。 表 状态及说明 状态 说明 正常 数据库实例正常和可用。 异常 数据库实例不可用。 创建中 正在创建数据库实例。 创建失败 数据库实例创建失败。 重启中 正在重启数据库实例。 实例名称修改中 正在修改数据库实例名称。 端口修改中 正在修改数据库实例的数据库端口。 规格变更中 正在变更数据库实例的CPU和内存规格。 添加只读中 正在进行数据库实例添加只读节点。 删除只读中 正在进行数据库实例删除只读节点。 只读升主中 只读节点正在切换为主节点。 备份中 正在备份数据库实例。 证书配置变更中 正在进行数据库实例证书配置变更。 已删除 数据库实例已被删除,对于已经删除的实例,将不会在实例列表中显示。 数据库引擎和版本 TaurusDB目前支持的数据库引擎和版本如下表所示。 表 数据库引擎和版本 数据库引擎 兼容的数据库版本 TaurusDB MySQL 8.0
        来自:
        帮助文档
        云数据库TaurusDB
        产品介绍
        实例说明
      • 通过创建触发器和函数实现PostgreSQL增量DDL同步
        操作步骤 说明 若源库为本云RDS for PostgreSQL,可以使用root用户创建相关对象,如果执行时报“Must be superuser to create an event trigger”错误,可以通过工单申请处理。本云RDS for PostgreSQL的root用户权限请参见RDS用户指南。 步骤 1 使用拥有创建事件触发器权限的用户连接要同步的数据库。 步骤 2 执行如下语句,创建存储DDL信息的表。 DROP TABLE IF EXISTS public.hwdrsddlinfo; DROP SEQUENCE IF EXISTS public.hwdrsddlinfoidseq; CREATE TABLE public.hwdrsddlinfo( id bigserial primary key, ddl text, username varchar(64) default currentuser, txid varchar(16) default txidcurrent()::varchar(16), tag varchar(64), database varchar(64) default currentdatabase(), schema varchar(64) default currentschema, clientaddress varchar(64) default inetclientaddr(), clientport integer default inetclientport(), eventtime timestamp default currenttimestamp ); 步骤 3 执行如下语句,创建函数。 CREATE OR REPLACE FUNCTION public.hwdrsddlfunction() RETURNS eventtrigger LANGUAGE plpgsql SECURITY INVOKER AS ​BODYBODY​ declare ddl text; declare realnum int; declare maxnum int : 50000; begin if (tgtag in ('CREATE TABLE','ALTER TABLE','DROP TABLE','CREATE SCHEMA','CREATE SEQUENCE','ALTER SEQUENCE','DROP SEQUENCE','CREATE VIEW','ALTER VIEW','DROP VIEW','CREATE INDEX','ALTER INDEX','DROP INDEX')) then select currentquery() into ddl; insert into public.hwdrsddlinfo(ddl, username, txid, tag, database, schema, clientaddress, clientport, eventtime) values (ddl, currentuser, cast(txidcurrent() as varchar(16)), tgtag, currentdatabase(), currentschema, inetclientaddr(), inetclientport(), currenttimestamp); select count(id) into realnum from public.hwdrsddlinfo; if realnum > maxnum then if currentsetting('serverversionnum')::int pgbackendpid() and locktype'relation' and relationtoregclass('public.hwdrsddlinfopkey')::oid and mode'RowExclusiveLock'); else delete from public.hwdrsddlinfo where id 'in progress'); end if; end if; end if; end; ​​BODYBODY​; 步骤 4 执行以下语句,为步骤2和步骤3中创建的对象赋予必要权限。 GRANT USAGE ON SCHEMA public TO public; GRANT SELECT,INSERT,DELETE ON TABLE public.hwdrsddlinfo TO public; GRANT SELECT,USAGE ON SEQUENCE public.hwdrsddlinfoidseq TO public; GRANT EXECUTE ON FUNCTION public.hwdrsddlfunction() TO public; 步骤 5 执行以下语句,创建DDL事件触发器。 CREATE EVENT TRIGGER hwdrsddlevent ON ddlcommandend EXECUTE PROCEDURE public.hwdrsddlfunction(); 步骤 6 执行以下语句,将创建的事件触发器设置为enable。 ALTER EVENT TRIGGER hwdrsddlevent ENABLE ALWAYS; 步骤 7 返回数据复制服务控制台,创建PostgreSQL>RDS for PostgreSQL的同步任务。 步骤 8 待同步任务结束后,请执行下语句删除创建的表、函数、触发器。 DROP EVENT trigger hwdrsddlevent; DROP FUNCTION public.hwdrsddlfunction(); DROP TABLE public.hwdrsddlinfo;
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        同步场景操作参考
        通过创建触发器和函数实现PostgreSQL增量DDL同步
      • 应用场景
        云间高速(标准版)产品广泛应用于多种场景,本文带您更快了解云间高速(标准版)经典应用场景。 场景一:跨资源池分布式组网 场景说明 客户在多个天翼云资源池购买云资源,部署分布式架构的企业应用,通过云间高速为客户创建一个专用网络,可以为客户提供更稳定、更灵活、更安全的网络环境,满足企业应用部署的需求。 产品优势 基于电信骨干网络快速转发,多点分布,内网访问。 场景二:跨区域数据传输 场景说明 客户需要频繁地在不同资源节点之间传输大量数据,或者进行数据迁移,以确保数据的安全性和稳定性。通过云间高速产品在节点之间建立安全稳定的高速网络通道,让数据可以在该通道上进行安全、稳定的内网传输。 产品优势 基于电信骨干网络快速转发,大带宽,弹性伸缩。 场景三:本地数据中心与云上VPC混合组网 场景说明 云间高速云网关具有强大的接入功能,能够与多种网络实例无缝连接,包括虚拟私有网络(VPC)、云专线以及天翼云SDWAN等。通过云网关,客户可以实现不同接入网络的自由切换,实现云端与本地网络的混合组网。这种灵活的接入方式使得客户可以根据自身需求,自由选择最佳的网络连接方式,从而实现高效的网络互联互通。
        来自:
        帮助文档
        云间高速(标准版)EC
        产品简介
        应用场景
      • 通过kafka导入日志
        本文主要介绍如何通过kafka导入日志。 本文主要介绍如何将天翼云分布式消息服务Kafka的数据导入到云日志服务,实现数据的查询分析、加工等操作。 注意 当前功能为试用阶段,仅在华北2资源池开放。 创建数据导入任务 1. 登录云日志服务控制台。 2. 左侧菜单栏点击“日志接入”,进入接入管理页面 3. 在“数据导入”模块中,点击“分布式消息服务Kafka数据导入” 4. 选择目标日志项目和日志单元,单击下一步。 5. 设置接入配置,配置如下参数,确认无误后,单击下一步。 参数 说明 接入配置名称 导入任务的唯一标识 Kafka 实例 选择kafka实例作为数据源 Topic 列表 选择Kafka主题,当前仅支持导入公有Topic 消费组 选择kafka中的消费组, 起始位置 选择开始导入数据的位置。 最早:从已有的第一条Kafka数据开始导入 最晚:从最近生成的Kafka数据开始导入 数据格式 待导入数据的格式。若您选择JSON字符串,导入任务会将原始数据解析为keyvalue对格式,只解析到第一层。 编码格式 选择导入数据的编码格式(即字符集),目前仅支持UTF8和GBK。 6. 创建索引。默认开启全文索引,您也可以根据需要手动创建字段索引用于字段查询。 7. 点击完成,即可完成导入任务创建。等待1分钟左右,在查询日志界面能查询到日志,则说明导入成功。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        其他接入方式
        通过kafka导入日志
      • 变更实例规格
        本章节主要介绍如何变更分布式消息服务RabbitMQ实例的规格。 操作场景 RabbitMQ实例创建成功后,您可以根据业务需要扩容,RabbitMQ实例支持的变更配置如表1所示。 表1 变更配置列表 实例类型 变更配置类型 是否支持扩展 是否支持缩容 :::::::: 集群 代理个数 √ × 集群 存储空间 √ × 集群 代理规格 √ √ 单机 代理个数 × × 单机 存储空间 √ × 单机 代理规格 √ √ 约束与限制 为了实例运行正常,变更规格过程中,请勿对实例进行其他操作。 实例变更规格后,配置费用将发生变化。 前提条件 已创建RabbitMQ实例,且实例状态为“运行中”。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,变更实例规格。 在待变更规格的实例所在行,单击“更多 > 变更规格”。 单击RabbitMQ实例名称,进入实例详情页面。单击右上角的“更多 > 变更规格”。 步骤 5 根据实际情况选择扩容存储空间、代理个数或者扩容/缩容代理规格。 扩容存储空间 在“变更配置”中,选择“存储空间”,在“单个代理存储空间”中,选择扩容后的单个代理的存储空间大小,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“可用存储空间”中查看扩容后的总存储空间大小(即扩容后的单个代理的存储空间代理个数)。 说明 可用存储空间实际存储空间用于存储日志的存储空间格式化磁盘的损耗。 例如,实际扩容存储空间到700GB,用于存储日志的数据的存储空间为100GB,格式化磁盘损耗7GB,那么扩容后的可用存储空间为593GB。 扩容代理个数 在“变更配置”中,选择“代理数量”,在“代理数量”中,选择扩容后的代理个数,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“规格”中查看扩容后的代理个数。 说明 变更规格过程中会有秒级业务中断,客户端需要支持自动重连,建议在业务低峰时进行变更。 扩容代理规格 在“变更配置”中,选择“代理规格”,在“代理规格”中,选择扩容后的规格,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“规格”中查看扩容后的代理规格。 说明 单机实例和没有配置镜像/仲裁队列的集群实例在变更规格过程中会有分钟级业务中断,客户端需要支持自动重连,建议在业务低峰时进行变更。 配置了镜像/仲裁队列的集群实例在变更规格过程中会有秒级业务中断,客户端需要支持自动重连,建议在业务低峰时进行变更。 当前只支持扩容,暂不支持缩容。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        变更实例规格
      • 导出参数
        本页介绍了文档数据库服务导出实例的在用参数组功能。 在文档数据库服务控制台,支持用户在数据库实例开通后,可以对数据库实例在用的参数组进行导出。 导出自定义参数模板 导出步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击左侧“DDS”>“参数组管理”菜单,点击“自定义参数模板”页签,进入到自定义参数模板列表页。 3. 选中需要导出的参数组,在“操作”列,点击“更多”>“导出”按钮,即可进行自定义参数模板的导出。 导出系统参数模板 导出步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击左侧“DDS”>“参数组管理”菜单,点击“系统参数模板”页签,进入到系统参数模板列表页。 3. 选中需要导出的参数组,在“操作”列,点击“更多”>“导出”按钮,即可进行系统参数模板的导出。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        参数组管理
        导出参数
      • 计费方式
        本页为您介绍数据库专家服务的计费方式。 天翼云数据库专家服务提供按次和包周期(包月/包年)计费两种计费方式,如下表: 计费方式 计量维度 描述 适用场景 按次 次/实例数 按照客户每次订购的基础服务单价 实例数收费,一次性付费。 适用于数据库专家服务基础服务。 按次 天 按照客户订购的保驾护航服务的单价 天数收费,一次性付费。 适用于数据库专家服务保驾护航服务。 包周期 时长实例数 包月:按照客户订购的包月时长 包月单价 实例数收费,一次性付费。 包年:按照客户订购的包年时长 包年单价 实例数收费,一次性付费。 适用于数据库专家服务数据库增值服务包。 注意 如果官网所列计费方式无法满足您的需求,您可以提交工单或拨打400电话联系客服进行咨询。
        来自:
        帮助文档
        数据库专家服务
        购买指南
        计费说明
        计费方式
      • 自建MySQL迁移至自建PostgreSQL
        本节为您介绍自建MySQL迁移至自建PostgreSQL任务配置。 前提条件 (1)自建PostgreSQL目标端版本为9.5.x、9.6.x、10.x、11.x、12.x、13.x、14.x版本。 (2)结构迁移只支持表结构迁移。 目标端权限要求 迁移模式 所需权限 基础权限 模式层级:USAGE 表层级: SELECT 全量迁移 需具备基础权限 结构迁移 需具备基础权限,且具备模式层级的CREATE权限 增量迁移 需具备基础权限,且用户为超级用户或者复制角色 复制角色赋予方法:alter user 用户名 with replication 稽核修复 需具备基础权限 目标端配置 数据源类型 选定为PostgreSQL,可将源端迁移至版本范围内的PostgreSQL数据库 服务器IP 目标端数据库的连接IP 端口号 目标端数据库的端口 用户名 用于连接待目标端数据库的用户名称 密码 用于连接待目标端数据库的用户的密码 数据库 目标端用于接收源端数据的数据库名称 模式 目标端用于接收源端数据的模式(schema)名称
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建MySQL为源的迁移任务配置
        自建MySQL迁移至自建PostgreSQL
      • 1
      • ...
      • 147
      • 148
      • 149
      • 150
      • 151
      • ...
      • 291
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      训推服务

      应用托管

      智算一体机

      人脸实名认证

      推荐文档

      编辑

      管理只读实例

      产品功能

      天翼云进阶之路⑦:怎么设置sql2008数据库最大服务器内存

      操作类

      产品规格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号