云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列Kafka版_相关内容
      • 分布式消息服务RabbitMQ事件目标
        结果验证 1. 使用事件总线发布消息功能,发送一个自定义事件。 2. 您可以在分布式消息RabbitMQ 控制台确认是否接收到事件,如图2所示。 1. 登录分布式消息服务RabbitMQ控制台,然后在左侧导航栏选择实例列表。 2. 在实例列表页面单击目标实例名称。 3. 在选择队列管理,进入目标队列详情,进入消息消费拨测页面。 4. 在消息查询页面,点击消费即可查看消息内容。 图2 在分布式消息服务RabbitMQ管理控制台中查看消息详情
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        分布式消息服务RabbitMQ事件目标
      • 事件目标概述
        事件目标是事件规则的一部分,负责消费经事件规则过滤与转换后的事件。 事件目标 事件总线EventBridge支持以下事件目标: 函数计算 分布式消息服务RocketMQ 分布式消息服务RabbitMQ 分布式消息服务Kafka HTTP、HTTPS地址
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        事件目标概述
      • 升级Kakfa实例内核版本
        本章节介绍如何将老的内核版本升级到最新的内核版本。 升级Kafka实例内核版本,指的是将老的内核版本升级到最新的内核版本,升级后,Kafka实例将支持一些新的特性(例如支持在控制台创建消费组、支持查看Topic详情等),并且修复老版本的一些问题。 升级Kafka实例内核版本并不会升级Kafka实例的大版本,例如升级前Kafka版本为2.7,升级内核版本后,Kafka版本还是2.7。 升级内核版本的影响 若Topic为单副本,升级期间无法对该Topic生产消息或消费消息,会造成业务中断。 若Topic为多副本,升级不会造成服务中断,但会逐个节点重启,负载会转移到剩余节点上,建议您在业务低峰期升级。 升级过程中会逐个节点升级,单个节点的升级包括两部分:升级软件包和数据同步。升级软件包耗时在5分钟左右,数据同步耗时取决于升级软件包过程中其他节点Leader副本的生产数据量,数据量越大,所需时间越久。升级总耗时每个节点升级软件包耗时+数据同步耗时。 升级过程中会逐个节点重启监控进程,导致监控数据断点,重启成功后,监控数据恢复。 升级过程中节点滚动重启造成分区Leader切换,会发生秒级连接闪断,在用户网络环境稳定的前提下,Leader切换时长一般为1分钟以内。多副本的Topic需要在生产客户端配置重试机制,方法如下: 生产客户端为Kafka开源客户端时,检查是否配置retries和retry.backoff.ms参数。建议参数值分别配置为:retries10,retry.backoff.ms1000。 生产客户端为Flink客户端时,检查是否配置重启策略,配置重启策略可以参考如下代码。 StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment(); env.setRestartStrategy(RestartStrategies.fixedDelayRestart(10, Time.seconds(20)));
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        升级Kakfa实例内核版本
      • 交换器管理
        本节介绍了在RabbitMQ实例中如何创建和删除交换器。 背景信息 生产者将消息发送到交换器,由交换器将消息路由到一个或多个队列中(或者丢弃)。交换器根据Routing Key和Binding Key将消息路由到Queue。不同类型的交换器的路由规则不同。 操作步骤 新建交换器 1.登录管理控制台。 2.进入RabbitMQ管理控制台。 3.在实例列表页在操作列,目标实例行点击“管理”。 4.点击“交换器管理”后,点击“新建”按钮。 5.点击“新建”后出现以下窗口,选择虚拟主机,添加交换器名字,选择交换器类型和其他参数,然后点击“确定”即可新建交换器。 各参数说明如下 参数 描述 虚拟主机 选择创建交换器所属的虚拟主机 名称 交换器名称。以amq.开头的为保留字段,因此不能使用。例如:。 类型 Exchange类型。 是否持久化 交换器是否持久化到磁盘 是否自动删除 如果是,交换器将在至少一个队列或交换器绑定到该交换器,然后所有队列或交换器都已解除绑定时删除。 是否内置 如果是,客户端不能直接发布到这个交换器。它只能与其他交换器绑定使用。 其他参数 Alternate exchange:备份交换器是为了实现没有路由到队列的消息,声明交换机的时候添加属性alternateexchange,声明一个备用交换机,一般声明为fanout类型,这样交换机收到路由不到队列的消息就会发送到备用交换机绑定的队列中。 其中交换机类型如下表所示 交换机类型 说明 Direct 完全根据key进行投递的叫做Direct交换机。如果Routing key匹配, 那么Message就会被传递到相应的queue中。其实在queue创建时,它会自动的以queue的名字作为routing key来绑定那个exchange。例如,绑定时设置了Routing key为”abc”,那么客户端提交的消息,只有设置了key为”abc”的才会投递到队列。 Fanout 不需要key的叫做Fanout交换机。它采取广播模式,一个消息进来时,投递到与该交换机绑定的所有队列。 Topic 对key进行模式匹配后进行投递的叫做Topic交换机。比如符号”
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        交换器管理
      • 产品优势
        灵活及时 队列处理能力支持按需自动扩展,及时且方便地完成系统扩展,消息投递时间可至毫秒级,从而保证消息及时性。分布式消息服务RocketMQ具有很高的灵活性,可以满足各种不同的业务需求。主要体现: 支持多种消息模型:RocketMQ支持多种消息模型,包括消息队列模型和发布/订阅模型。在消息队列模型中,消息发送方将消息发送到一个队列,消息接收方从队列中读取消息。这种模型适用于顺序消息和事务性消息等场景。而在发布/订阅模型中,消息发送方将消息发布到一个主题,所有订阅该主题的消费者都会收到消息。这种模型适用于实时通知、数据分发等场景。 支持灵活的消息过滤机制:RocketMQ可以通过对消息的属性进行过滤,只有满足条件的消息才会被消费者接收。这样可以实现消息的动态路由和选择性消费,提升系统的灵活性和效率。 支持消息延迟发送和定时消费:RocketMQ可以设置消息的延迟时间,使消息在指定的时间后才能被消费者接收。这对于实现定时任务和延迟处理非常有用。 良好的可扩展性:RocketMQ采用了分布式架构,并且支持主从复制和消息分区机制。可以根据业务需求,动态扩展消息生产者、消息消费者和消息存储节点的数量,以满足大规模消息处理和高并发访问的要求。 高可靠 集群节点采用主备模式,具有主备故障自动切换功能;并且提供对消息的持久化能力,多副本冗余;提供消息数据自动删除功能。分布式消息服务RocketMQ具有高可靠性的特点,以下是RocketMQ实现高可靠性的关键特性: 主从复制:RocketMQ采用了主从复制的架构,在生产者发送消息时,消息会首先写入主节点,并异步复制到多个从节点。这样即使主节点发生故障,从节点也能够接管并继续提供服务。 可靠消息存储:RocketMQ使用Write Ahead Log (WAL)技术来保证消息的可靠存储。在消息写入之前,会先将消息写入磁盘的顺序文件中,然后再写入内存。当RocketMQ重启时,可以通过检查磁盘上的文件来恢复之前未被消费的消息。 消息可重复存储:RocketMQ使用消息的唯一ID来确保消息的幂等性。如果一条消息因为网络问题或其他原因发送失败,RocketMQ可以根据消息的ID判断是否已经成功发送过,并避免消息的重复发送。 容灾备份:RocketMQ支持Broker集群模式和多数据中心的部署方式,可以将消息数据进行容灾备份。当某个Broker节点发生故障时,其他节点可以继续提供服务,确保系统的可用性。 高可用性设计:RocketMQ采用了多个Broker节点组成的集群,并通过主从复制和故障切换来实现高可用性。当某个Broker节点发生故障时,其他节点会自动接管其工作,保证消息的正常处理。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        产品优势
      • 查设备连接信息
        参数 参数类型 说明 示例 下级对象 clientid String 设备ID keepalive Integer 心跳时间 mqueuelen Integer 队列消息长度 maxinflight Integer 暂无描述 createdat String 创建时间 connectedat String 连接时间 sendmsg Integer 发送消息数量 mqueuedropped Integer 队列丢弃消息数量 recvmsg Integer 接收消息数量 ipaddress String ip port Integer 端口 username String 用户名 cleanstart Boolean 持久化会话
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        4.0版本接口
        设备管理
        查设备连接信息
      • 事件内容转换
        示例三:转换时变量为JSON形式 转换前的事件 转换类型 转换后的事件 plaintext { "id": "f36b49b668914b59b11cbf689xxxx712", "source": "ctyun:kafka", "type": "ctyun:kafka:Topic:Message", "specversion": "1.0", "datacontentype": "application/json;charsetutf8", "subject": "ctyun:kafka:75dcxx1eb5:topic:source1", "time": "20241203T09:48:00.696Z", "data": { "key": "test2", "value": "test1" } } 模板 变量: plaintext { "data": "$.data" } 模板: plaintext { "value": ${data} } plaintext { "value": { "key": "test2", "value": "test1" } } 示例四:转换时变量进行JSON转义 若希望转换的字符串保持JSON字符串格式,不破坏原有JSON的格式,可使用jsonEscape函数,如下所示: 转换前的事件 转换类型 转换后的事件 plaintext { "id": "f36b49b668914b59b11cbf689xxxx712", "source": "ctyun:kafka", "type": "ctyun:kafka:Topic:Message", "specversion": "1.0", "datacontentype": "application/json;charsetutf8", "subject": "ctyun:kafka:75dcxx1eb5:topic:source1", "time": "20241203T09:48:00.696Z", "data": { "key": "test2", "value": "test1" } } 模板 变量: plaintext { "data": "$.data" } 模板: plaintext { "value": "${jsonEscape(data)}" } plaintext { "value": "{"key": "test2","value": "test1"}" } 空 当转换类型为空时,事件总线EventBridge将事件路由到事件目标时,对应的属性为空。如希望分布式消息服务Kafka事件目标的Key、分布式消息服务RocketMQ事件目标的Tags为空时,可以将对应属性设置为空。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件内容转换
      • RabbitMQ消息持久化
        本文主要介绍分布式消息服务RabbitMQ的消息持久化最佳实践。 使用场景 默认情况下,RabbitMQ生产者生产的消息存储在内存中,当节点宕机或重启时,如何确保消息不丢失呢?RabbitMQ通过持久化机制实现,持久化包括Exchange持久化、Queue持久化和Message持久化。持久化是将内存中的消息写入到磁盘中,以防异常情况导致内存中的消息丢失。但是磁盘的读写速度远不如内存,开启消息持久化后,RabbitMQ的性能会下降。与惰性队列不同,持久化消息会在磁盘和内存中各存储一份,只有在内存空间不够时,才会将内存中的消息删除,存储到磁盘中。 说明 非持久化队列、Exchange在重启之后会丢失。 非持久化消息在重启之后会丢失(经过持久化队列/Exchange的消息不会自动变为持久化消息)。 持久化消息在尚未完成持久化时,如果服务器重启,消息会丢失。 设置Exchange持久化 在RabbitMQ的Web界面创建Exchange时,设置“durable”为“true”,如图1所示,设置成功后如图2所示。 图1 设置Exchange持久化 图2 持久化的Exchange
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ消息持久化
      • 集群信息
        Broker信息 展示该集群具体broker信息,包括该broker的详细指标,如下图: 其中关键指标为: commitLogMaxOffset为当前brokercommitLog最大的物理偏移。通过commitLogMaxOffset,RocketMQ可以追踪和管理消息的存储位置。当有新的消息写入时,RocketMQ会将消息追加到Commit Log文件的末尾,并更新commitLogMaxOffset的值。消费者在消费消息时,可以根据commitLogMaxOffset来确定从哪个偏移量开始消费消息。 consumeQueueDiskRatio为消费队列存储的文件占用的磁盘空间比例。通过配置consumeQueueDiskRatio,可以在保证消费队列的性能的同时,控制磁盘空间的占用。较小的consumeQueueDiskRatio值可以提高消费队列的读写性能,但会增加内存的使用。较大的consumeQueueDiskRatio值可以降低内存的使用,但可能会降低消费队列的读写性能。根据实际需求,可以根据系统的内存和磁盘资源情况来调整consumeQueueDiskRatio的值,以获得更好的性能和资源利用率。 putMessageDistributeTime为消息写入commitLog的耗时分布。通过配置putMessageDistributeTime,可以了解消息从发送到最终被消费的整体时间。这对于监控和优化消息传递的性能和延迟非常有用。注意,putMessageDistributeTime是一个估计值,实际的消息传递时间可能会受到网络状况、消费者处理能力等多种因素的影响。因此,在配置putMessageDistributeTime时,需要根据实际情况进行调整,并结合其他指标进行综合分析。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        集群信息
      • Kafka性能调优
        磁盘数目 存储磁盘的 IOPS(每秒输入/输出操作次数)和每秒读/写字节数有限制。创建新分区时,Kafka 会将每个新分区存储在现有分区最少的磁盘上,以便在可用磁盘之间平衡分区的数目。尽管有存储策略进行调节,但在处理每个磁盘上的数百个分区副本时,Kafka 很容易就会使可用磁盘吞吐量达到饱和。此时,需要在吞吐量与成本之间进行取舍。如果应用场景需要更大的吞吐量,请创建一个可为每个代理提供更多托管磁盘的群集。 主题和分区的数目 Kafka生产者将写入主题。Kafka 消费者读取主题。主题与日志相关联,该日志是磁盘上的数据结构。Kafka 将生产者中的记录追加到主题日志的末尾。主题日志包括分散在多个文件之间的多个分区。而这些文件又分散在多个 Kafka 群集节点之间。消费者可以按照自己的节奏从 Kafka 主题中读取内容,并可以在主题日志中选择自己的位置(偏移)。 每个 Kafka 分区是在系统上的一个日志文件,生产者线程可以同时写入到多个日志。同样,由于每个消费者线程从一个分区读取消息,因此也能并行处理从多个分区使用消息的操作。 提高分区密度(每个代理的分区数)会增大与元数据操作以及每个分区领先者及其后继者之间的分区请求/响应相关的开销。即使不存在流动的数据,分区副本也仍会从领先者提取数据,导致需要通过网络额外处理发送和接收请求。 对于 HDInsight 中的 Apache Kafka 群集 2.1 和 2.4 以及更高版本,我们建议最多为每个代理提供 2000 个分区(包括副本)。增加每个代理的分区数会降低吞吐量,并可能导致主题不可用。
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        Kafka性能调优
      • 分布式消息服务Kafka服务协议
        分布式消息服务Kafka服务协议,请点击这里
        来自:
        帮助文档
        分布式消息服务Kafka
        相关协议
        分布式消息服务Kafka服务协议
      • 自建Apache Kafka事件目标
        您可以通过事件规则过滤事件,将事件路由到自建Apache Kafka服务。本文以自定义事件为例介绍将事件路由到自建Apache Kafka的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权 创建自定义总线服务 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,在左侧导航栏,单击事件规则,然后单击添加事件规则。 3. 在添加事件规则页面,完成以下操作。 1. 在配置基本信息配置向导,在名称文本框输入规则名称,在描述文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式配置向导,选择匹配全部事件,然后单击下一步。 3. 在配置事件目标 配置向导,配置事件目标,事件目标服务类型选择自建Apache Kafka,目标参数描述如下,然后单击创建。 参数说明 参数 说明 示例 接入点 Apache Kafka集群broker接入点,由IP与端口号拼接而成,以逗号分隔。 172.17.0.25:9092,192.17.0.26:9092,172.17.0.27:9092 Topic topic名称。 topic1 网络配置 根据业务场景选择对应配置。 专有网络 公网网络 专有网络 VPC 网络配置选择专有网络时必填,选择集群所在的VPC。 vpc 子网 网络配置选择专有网络时必填,选择集群所在的子网。 subnet 认证模式 选择认证模式。 PLAINTEXT SASLPLAINTEXT 用户名:填写SASL用户名 密码:填写SASL密码 SASL鉴权方式:可选PLAIN和SCRAMSHA512 PLAINTEXT 消息体 选择消息体(Body)的内容,更多信息请参考事件内容转换。 完整事件 消息键值 选择消息键值(Key)的内容,更多信息请参考事件内容转换。 空
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        自建Apache Kafka事件目标
      • 连接问题
        是否支持跨Region访问? Kafka可以跨Region访问,但是跨Region目前只能通过公网访问或者拉专线的方式。 Kafka实例是否支持跨VPC访问? Kafka实例支持跨VPC访问,您可以通过以下方式实现跨VPC访问: 创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问。具体步骤请参考《虚拟私有云用户指南》的“VPC对等连接”章节。 Kafka实例是否支持不同的子网? 支持。 客户端与实例在相同VPC内,可以跨子网段访问。同一个VPC内的子网默认可以进行通信。 Kafka是否支持Kerberos认证,如何开启认证? Kafka支持SASL客户端认证、调用接口支持Token和AK/SK两种认证,Kerberos认证目前不支持。 如果使用SASL认证方式,则在开源客户端基础上使用分布式消息服务Kafka提供的证书文件。具体操作参考连接已开启SASL的Kafka实例。 Kafka实例是否支持无密码访问? 支持,连接未开启SASL的Kafka实例时,无需密码。具体操作,请参考连接未开启SASL的Kafka实例。 开启公网访问后,在哪查看公网IP地址? 在Kafka控制台,单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,查看公网IP地址(即“公网连接地址”)。 如果您需要连接Kafka实例,请参考连接Kafka。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
      • 消息问题
        本章节主要介绍消息类问题的解决方法。 RabbitMQ实例支持延时消息队列么? RabbitMQ可以通过设置消息的有效期和死信队列来实现延迟消息。同时,也提供安装插件实现延迟消息。当前RabbitMQ支持的插件:rabbitmqamqp10、rabbitmqdelayedmessageexchange、rabbitmqfederation、rabbitmqsharding、rabbitmqshovel、rabbitmqtracing、rabbitmqmqtt、rabbitmqwebmqtt、rabbitmqstomp、rabbitmqwebstomp和rabbitmqconsistenthashexchange。 消息的最长保留时间是多久? 一般情况下消息如果未被消费会一直保留,只有被消费后,才会被删除。但是如果设置了过期时间(TTL),则以TTL时间为准。 消息创建时间在哪设置? 消息创建时间是由生产客户端在生产消息时设置的。 RabbitMQ生产消息的最大长度是多少? 单条消息的最大长度为50MB,请勿发送大于此长度的消息,否则会导致生产失败。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        消息问题
      • 入门实践
        本文主要介绍分布式消息服务RabbitMQ的入门实践。 当您购买了RabbitMQ实例后,可以根据自身的业务需求使用分布式消息服务RabbitMQ提供的一系列常用实践。 表1 常用最佳实践 实践 描述 RabbitMQ业务迁移 介绍将线下单机或集群实例迁移到天翼云RabbitMQ实例的方案。 RabbitMQ队列迁移 扩容节点、删除队列可能会导致队列在各个节点分布不均衡,本文介绍如何设置队列负载均衡。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        入门实践
      • 主子账号和IAM权限管理
        系统策略 Kafka默认提供三种系统策略供用户选择,策略仅包括管理控制台内的相关功能权限,涉及订单下单等非管理控制台的权限还需进行相应的权限配置。Kafka的三种默认策略分别是管理员策略(admin),使用者策略(user),浏览者策略(reviewer),三种策略的权限模型具体如下: 功能模块 权限名称 IAM角色 功能模块 权限名称 KAFKA admin KAFKA user KAFKA viewer 实例管理 实例列表 Y Y Y 实例管理 操作审计 Y Y Y 实例管理 集群迁移 Y Y 实例列表 创建实例 Y 实例列表 磁盘扩容 Y 实例列表 节点扩容 Y 实例列表 规格扩容 Y 实例列表 规格缩容 Y 实例列表 续订 Y 实例列表 退订 Y 实例列表 到期转按需 Y 实例列表 重启 Y 实例列表 设置公网IP Y 管理 实例详情 Y Y Y 管理 集群信息 Y Y Y 管理 主题管理 Y Y Y 管理 消费组管理 Y Y Y 管理 应用用户管理 Y Y Y 管理 命名空间管理 Y Y Y 管理 监控信息 Y Y Y 管理 消息查询 Y Y Y 管理 配置管理 Y Y Y 管理 告警管理 Y Y 主题管理 新建Topic Y Y 主题管理 删除Topic Y Y 主题管理 分区状态 Y Y Y 主题管理 生产拨测 Y Y 主题管理 删除消息 Y Y 主题管理 分区平衡 Y Y 主题管理 批量创建主题 Y Y 主题管理 修改 Y Y 消费组管理 新建消费组 Y Y 消费组管理 删除消费组 Y Y 消费组管理 消费拨测 Y Y 消费组管理 批量创建消费组 Y Y 消费组管理 添加主题 Y Y 消费组管理 批量订阅 Y Y 消费组管理 重置消费位置 Y Y 消费组管理 消息堆积 Y Y Y 命名空间管理 获取用户Token Y Y Y 命名空间管理 新建命名空间 Y Y 命名空间管理 修改命名空间 Y Y 应用用户管理 新建用户 Y Y 应用用户管理 删除用户 Y Y 应用用户管理 批量创建用户 Y Y 应用用户管理 添加消费者权限 Y Y 应用用户管理 添加生产者权限 Y Y 应用用户管理 修改用户 Y Y 实例管理 offset查询 Y Y Y 实例管理 时间戳查询 Y Y Y 配置管理 查询配置 Y Y Y 配置管理 修改配置 Y
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        主子账号和IAM权限管理
      • 服务等级协议
        产品服务等级协议请查看: 分布式消息服务Kafka服务等级协议
        来自:
        帮助文档
        分布式消息服务Kafka
        相关协议
        服务等级协议
      • 路由到自建Apache Kafka
        本文介绍如何在事件总线EventBridge管理控制台添加自建Apache Kafka作为事件流中的事件目标。 前提条件 开通事件总线EventBridge并委托授权。 创建事件流 1. 登录事件总线EventBridge管理控制台,在左侧导航栏,单击事件流。 2. 在创建事件流面板,设置任务名称和描述,配置以下参数,然后单击创建,如图1所示。 1. 在Source(源) 、Filtering(过滤) 、Transform(转换)配置向导,设置事件提供方、事件过滤、转换规则,单击下一步。 2. 在Sink(目标) 配置向导,选择服务类型自建Apache Kafka,配置参数,详见下方参数说明。 3. 创建事件流后,会有30秒~60秒的延迟时间,您可以在事件流 页面的状态 栏查看启动进度。 参数说明 参数 说明 示例 接入点 Apache Kafka集群broker接入点,由IP与端口号拼接而成,以逗号分隔。 172.17.0.25:9092,192.17.0.26:9092,172.17.0.27:9092 Topic topic名称。 topic1 网络配置 根据业务场景选择对应配置。 专有网络 公网网络 专有网络 VPC 网络配置选择专有网络时必填,选择集群所在的VPC。 vpc 子网 网络配置选择专有网络时必填,选择集群所在的子网。 subnet 认证模式 选择认证模式。 PLAINTEXT SASLPLAINTEXT 用户名:填写SASL用户名 密码:填写SASL密码 SASL鉴权方式:可选PLAIN和SCRAMSHA512 PLAINTEXT 消息体 选择消息体(Body)的内容,更多信息请参考事件内容转换。 完整事件 消息键值 选择消息键值(Key)的内容,更多信息请参考事件内容转换。 空
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件目标
        路由到自建Apache Kafka
      • DMS for Kafka资源
        指定资源 资源名称 资源路径 kafka 实例 【格式】 DMS:::kafka:Instance ID
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        权限管理
        DMS for Kafka资源
      • 查询Topic信息
        本章节介绍了如何查询分布式消息服务RocketMQ实例的Topic。 操作场景 Topic创建成功后,查询Topic相关的配置和状态信息。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“Topic管理”,进入“Topic管理”页面。 4. 单击需要查询的Topic名称,进入Topic详情页面。 在详情页上方可以查看Topic名称、关联代理、读队列个数、写队列个数和权限。 在详情页下方可以查看Topic在每个代理上的队列状态,包括队列ID、最小偏移量、最大偏移量和消息更新时间。还可以查看消费组消费此Topic的情况,包括消费组名称、最大重试次数和广播消费。 图 Topic详情
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        查询Topic信息
      • 安全方案
        数据保护技术 RabbitMQ提供了多种数据保护技术,以确保数据在传输和存储过程中的机密性和完整性。 1. 跨AZ容灾:在不同的可用区部署多个RabbitMQ节点,确保节点之间的数据复制和同步。这样,当一个可用区发生故障时,其他可用区上的节点可以继续提供服务。 2. 副本冗余:RabbitMQ副本冗余是一种保证消息队列的高可用性和数据冗余的策略。通过在多个节点上创建副本,可以确保即使一个节点发生故障,其他节点上的副本仍然可以提供服务。 3. 数据持久化:RabbitMQ数据持久化是通过将队列、消息和交换器进行持久化,确保消息队列中的数据在节点重启或故障时不会丢失。 服务韧性 RabbitMQ服务的韧性是指其在面对各种故障和异常情况时能够保持可用性和可靠性的能力。以下是保障RabbitMQ服务韧性的关键方面: 1. AZ内实例容灾:在不同的可用区内部署多个RabbitMQ节点,使它们能够相互复制和同步消息。这样即使一个可用区发生故障,其他可用区的节点仍然可以提供服务。 2. 数据容灾:RabbitMQ数据容灾是通过持久化消息、队列和交换器、备份和复制以及高可用性集群等策略,保护数据免受损失和故障影响的措施。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        安全方案
      • 查看Topic日志
        关闭Topic日志 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用服务 > 分布式消息服务Kafka”,进入Kafka总览页面。 4. 在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 5. 单击Kafka实例的名称,进入实例详情页面。 6. 在左侧导航栏选择“日志管理 > Topic日志”,进入“Topc日志”页面。 7. 在页面右上角单击“关闭日志”,弹出确认关闭对话框。 8. 单击“确定”,自动跳转到“后台任务管理”页面,“状态”为“成功”时,表示关闭Topic日志成功。 关闭Topic日志只是停止Topic日志上报功能,LTS控制台的日志组和日志流仍然保留,还会继续收费,如不需要保留该日志,可以在LTS控制台删除对应的日志组和日志流。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看Topic日志
      • 消息重复和消费幂等
        Kafka 消费的语义是 “at least once”, 也就是至少投递一次,保证消息不丢,但是不会保证消息不重复。在出现网络问题、客户端重启时均有可能出现少量重复消息,此时应用消费端如果对消息重复比较敏感(比如说订单交易类),则应该做到消息幂等。 以数据库类应用为例,常用做法是: 发送消息时,传入 key 作为唯一流水号ID; 消费消息时,判断 key 是否已经消费过,如果已经消费过了,则忽略,如果没消费过,则消费一次; 当然,如果应用本身对少量消息重复不敏感,则不需要做此类幂等检查。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消息重复和消费幂等
      • Java客户端Pull和Push的选择
        Java客户端必须使用Push Consumer 使用Pull可以实现的所有场景,均可使用Push实现,并且更简单。 Push其实是长轮询的Pull(依然是由客户端发起),在客户端通过配置参数是可以实现流控的,并不会出现服务端的流量压垮客户端的情况。 Push封装了拉取消息,分发给消费线程的线程模型,非流控的情况下,由后台线程主动拉取消息,并缓存在本地,消费线程池有空闲线程时,分发给消费线程,在有堆积量的情况下,可以保证消费线程一直工作,性能更高(备注:Pull只提供了拉取消息的功能,并且何时去拉取,拉取时机,这些都需要应用去控制;分发给消费线程的逻辑需要应用封装,除了增加应用工作量外,还可能有不稳定、性能问题等)。 Push经过多个大型项目的长时间的使用,更成熟稳定。 Push会自动订阅重试队列,不需要再次调用拉取重试队列的API来取得重试队列的消息(备注:Pull需要另外调用API拉取重试队列的消息)。 Pull是一种遗留的消费模式(兼容早期的API),新开发的应用,或者未上线的应用,都要求使用Push消费模式。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        Java客户端Pull和Push的选择
      • 消息查询
        根据ID查询 根据消息ID查询唯一消息,选择消费组后,可以查询到该消息是否被该消费组消费过。 点击“查看”,可以查询该消息的包体内容。 消费状态标志含义: (1)Toconsume:未消费。 (2)Consumed:已签收。 (3)Consuming:已拉取,未签收。 根据offset查询 根据指定队列指定偏移量查询唯一消息,选择订阅组后,可以查询到该消息是否被该订阅组消费过。 点击“查看”,可以查询该消息的包体内容。 基于Topic查询 死信队列查询
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        管理消息
        消息查询
      • 产品服务等级协议(SLA)
        视频 天翼云媒体存储服务等级协议 容器与企业中间件 云容器引擎服务等级协议 微服务云应用平台服务等级协议 分布式消息服务RabbitMQ服务等级协议 分布式消息服务RocketMQ服务等级协议 分布式消息服务Kafka服务等级协议 天翼云软件开发生产线CodeArts服务等级协议 天翼云应用性能监控APM服务等级协议 天翼云容器安全卫士服务等级协议 天翼云应用服务网格服务等级协议 天翼云微服务引擎服务等级协议 天翼云容器镜像服务等级协议 天翼云函数计算服务等级协议 安全 Web应用防火墙(边缘云版)服务等级协议 天翼云高防(边缘云版)服务等级协议 天翼云网站安全监测服务等级协议 天翼云爬虫管理平台服务等级协议 天翼云容器安全平台服务等级协议 天翼云托管检测与响应服务(原生版)服务等级协议 天翼云密评专区服务等级协议 天翼云日志审计服务等级协议 天翼云证书管理服务等级协议 天翼云云堡垒机服务等级协议 天翼云密钥管理服务等级协议 天翼云云安全中心服务等级协议 天翼云Web应用防火墙(原生版)服务等级协议 天翼云云防火墙(原生版)服务等级协议 天翼云Web应用防火墙(独享版)服务等级协议 天翼云漏洞扫描(专业版)服务等级协议 天翼云企业主机安全服务等级协议 天翼云态势感知(专业版)服务等级协议 天翼云云防火墙服务等级协议 天翼云运维安全中心(云堡垒机)服务等级协议
        来自:
        帮助文档
        法律声明
        服务等级协议
        产品服务等级协议(SLA)
      • 事件源概述
        事件源是事件的来源,负责将生产的事件发布到事件总线。 事件总线EventBridge支持以下事件源: 天翼云官方事件源 作为事件源接入时,只要开通相应的天翼云服务,就可以自动接入事件总线EventBridge。通过配置预定义的事件源与事件规则,实现从事件源发布事件到云服务专用总线,经过事件模式过滤后把事件路由到事件目标。 自定义事件源 作为事件源接入时,您可以配置自定义应用事件源,使用SDK接入事件总线EventBridge。通过创建自定义总线、配置事件规则,把自定义应用产生的事件发布到自定义总线,经过事件模式过滤后把事件路由到事件目标。 作为事件源接入时,您可以配置消息类事件提供方,把事件主动拉取到事件总线EventBridge。例如,当您配置事件提供方为分布式消息服务Kafka时,事件总线EventBridge会把分布式消息服务Kafka对应资源产生的消息主动拉取到自定义总线中,经过事件模式过滤后把事件路由到事件目标。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        事件源概述
      • 快速创建Kafka流式集群
        本章节主要介绍如何快速创建Kafka流式集群。 本章节为您介绍如何快速创建一个Kafka流式集群,Kafka集群使用Kafka和Storm组件提供一个开源高吞吐量,可扩展性的消息系统。广泛用于日志收集、监控数据聚合等场景,实现高效的流式数据采集,实时数据处理存储等。 快速创建Kafka流式集群 1.登录MRS管理控制台。 2.单击“创建集群”,进入“创建集群”页面。 3.在创建集群页面,选择“快速创建”页签。 4.参考下列参数说明配置集群基本信息,参数详细信息请参考创建自定义集群。 区域:默认即可。 集群名称:可以设置为系统默认名称,但为了区分和记忆,建议带上项目拼音缩写或者日期等。例如:“mrs20200321”。 版本类型:默认选择普通版(不同版本提供的组件有所不同,请根据需要选择版本类型)。 集群版本:不同版本集群提供的组件有所不同,请根据需要选择集群版本。 组件选择:选择“Kafka流式集群”。 可用区:默认即可。 虚拟私有云:默认即可。如果没有虚拟私有云,请单击“查看虚拟私有云”进入虚拟私有云,创建一个新的虚拟私有云。 子网:默认即可。 CPU架构:默认即可。 集群节点:请根据自身需要选择集群节点规格数量等。MRS 3.x及之后版本集群Master节点规格不能小于64GB。 集群高可用:默认即可。MRS 3.x版本暂时不支持该参数。 LVM:默认即可。MRS 3.x版本暂时不支持该参数。 用户名:默认为“root/admin”,root用于远程登录ECS机器,admin用于登录集群管理页面。 密码:设置root用户和admin用户密码。 确认密码:再次输入设置的root用户和admin用户密码。 5.勾选“确认授权”开通通信安全授权,通信安全授权详情请参考授权安全通信。 6.单击“立即申请”。 当集群开启Kerberos认证时,需要确认是否需要开启Kerberos认证,若确认开启请单击“继续”,若无需开启Kerberos认证请单击“返回”关闭Kerberos认证后再创建集群。 7.单击“返回集群列表”,可以查看到集群创建的状态。单击“访问集群”,可以查看集群详情。 集群创建的状态过程请参见 集群概览章节查看集群状态部分 集群列表参数中的“状态”参数说明。 集群创建需要时间,所创集群的初始状态为“启动中”,创建成功后状态更新为“运行中”,请您耐心等待。 MRS系统界面支持同一时间并发创建10个集群,且最多支持管理100个集群。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        快速创建集群
        快速创建Kafka流式集群
      • 业务过载最佳实践
        本节介绍Kafka业务过载最佳实践 方案概述 Kafka业务过载,一般表现为CPU使用率高、磁盘写满的现象。 当CPU使用率过高时,系统的运行速度会降低,并有加速硬件损坏的风险。 当磁盘写满时,相应磁盘上的Kafka日志目录会出现offline问题。此时,该磁盘上的分区副本不可读写,降低了分区的可用性和容错能力。同时由于Leader分区迁移到其他节点,会增加其他节点的负载。 CPU使用率高的原因 数据操作相关线程数(num.io.threads、num.network.threads、num.replica.fetchers)过多,导致CPU繁忙。 分区设置不合理,所有的生产和消费都集中在某个节点上,导致CPU利用率高。 磁盘写满的原因 业务数据增长较快,已有的磁盘空间不能满足业务数据需要。 节点内磁盘使用率不均衡,生产的消息集中在某个分区,导致分区所在的磁盘写满。 Topic的数据老化时间设置过大,保存了过多的历史数据,容易导致磁盘写满。 实施步骤 CPU使用率高的处理措施: 优化线程参数num.io.threads、num.network.threads和num.replica.fetchers的配置。 num.io.threads和num.network.threads建议配置为磁盘个数的倍数,但不能超过CPU核数。 num.replica.fetchers建议配置不超过5。 合理设置Topic的分区,分区一般设置为节点个数的倍数。 生产消息时,给消息Key加随机后缀,使消息均衡分布到不同分区上。 磁盘写满的处理措施: 扩容磁盘,使磁盘具备更大的存储空间。 迁移分区,将已写满的磁盘中的分区迁移到本节点的其他磁盘中。 合理设置Topic的数据老化时间,减少历史数据的容量大小。 在CPU资源情况可控的情况下,使用压缩算法对数据进行压缩。 常用的压缩算法包括:ZIP,GZIP,SNAPPY,LZ4等。选择压缩算法时,需考虑数据的压缩率和压缩耗时。通常压缩率越高的算法,压缩耗时也越高。对于性能要求高的系统,可以选择压缩速度快的算法,比如LZ4;对于需要更高压缩比的系统,可以选择压缩率高的算法,比如GZIP。 可以在生产者端配置“compression.type”参数来启用指定类型的压缩算法。 Properties props new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("acks", "all"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 开启GZIP压缩 props.put("compression.type", "gzip"); Producer producer new KafkaProducer<>(props);
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        业务过载最佳实践
      • 日志、告警外发设置
        本节指导用户通过Kafka将日志、告警外发至第三方。 日志外发功能为公测功能,新购用户可以限时免费体验。 为日志类型添加转发目标 1. 登录云安全中心控制台。 2. 在左侧导航栏,选择“设置 > 集成配置”,进入集成配置页面。 3. 选择日志类型,点击“转发配置”列的【+】按钮,弹出“新增转发配置”窗口。 4. 选择“转发目标”,单击“保存”,自动返回集成配置页面。此时转发配置 开关为“关闭”,投递状态为“未开启”。 5. 单击“转发配置”开关,打开“转发配置”。 配置转发目标 1. 在新增转发配置页面,单击“转发目标配置”进入转发目标配置页面,单击“新增”,进入“转发目标编辑”页面。 2. 输入相关信息,单击“检测”。 说明 “加密类型”选择“不加密”时,会自动在目标Kafka创建相应的“队列名(topic)”。 “加密类型”选择“SASL加密”时,需要先手动在目标Kafka创建相应的“队列名(topic)”。 3. 检测通过后,单击“保存”。 保存成功,返回转发目标配置页面,可以看到已新增的转发目标。
        来自:
        帮助文档
        云安全中心
        快速入门
        日志、告警外发设置
      • 队列管理概述
        专属队列 专属队列是指队列对应的资源为专属资源,空闲时不释放,即无论是否使用均保留资源的队列类型。专属队列可以保证提交作业时资源一定存在。 队列弹性扩缩容 DLI提供了队列弹性扩缩容的功能。用户在创建指定规格队列后,可根据需要进行弹性扩缩容。 根据业务情况,手动更改队列规格。具体操作请参考队列弹性扩缩容。 说明 新创建的队列需要运行作业后才可进行扩缩容。 队列弹性扩缩容定时任务 DLI提供了队列弹性扩缩容定时任务的功能。用户在创建队列后,可根据需要进行弹性扩缩容定时任务。 根据业务情况,设置队列自动扩缩容的时间,由系统定时触发队列扩缩容。具体操作请参考弹性扩缩容定时任务。 说明 新创建的队列需要运行作业后才可进行扩缩容。 队列自动扩缩容 Flink作业使用队列,DLI可根据作业大小自动触发扩缩容,用户无需进行操作。 说明 新创建的队列需要运行作业后才可进行扩缩容。 队列管理页面 队列管理主要包括如下功能: 队列权限管理 创建队列 删除队列 修改队列网段 队列弹性扩缩容 弹性扩缩容定时任务 测试地址连通性 创建消息通知主题 说明 DLI作业执行失败需要通过SMN发送通知消息,因此需要获得访问和使用SMN(消息通知服务)的SMN Administrator权限。 队列管理页面显示用户创建所有的队列和服务预置的default队列。队列列表默认按创建时间排列,创建时间最近的队列显示在最前端。 队列管理参数 参数 参数说明 名称 队列的名称。 类型 队列的类型。 SQL队列 通用队列 Spark队列(兼容老版本) 规格 队列大小,单位:CUs。 CUs是队列的计价单位。1CUs1Core 4GMem。不同规格的队列对应的计算能力不一样,规格越高计算能力越好。 实际CUs 当前队列实际大小值。 弹性扩缩容 定时扩缩容的目标CU值,或当前规格CU值的最大值和最小值。 用户名 队列所有者。 描述 创建队列时,对队列的描述。如果无描述,则显示“”。 操作 删除:删除所选队列。如果队列中有正在提交或者正在运行的作业,将不支持删除操作。 权限管理:查看队列对应的用户权限信息以及对其他用户授权。 更多 − 重启:强制重启队列。 说明 只有SQL队列有“重启”操作。 − 弹性扩缩容:可以根据需要选择“扩容”或“缩容”,目标值大小必须为16CU的整数倍。 − 弹性扩缩容定时任务:可以根据业务周期或使用情况,在不同的时间或周期内设置不同的队列大小,系统将定时自动进行“扩容”或“缩容”。目标值大小必须为16CU的整数倍。 − 修改网段:使用DLI增强型跨源时,DLI队列网段与数据源网段不能重合,可根据需要进行修改。 − 测试地址连通性:测试队列到指定地址是否可达,支持域名和ip,可指定端口。
        来自:
        帮助文档
        数据湖探索
        用户指南
        队列管理
        队列管理概述
      • 如何提高消息处理效率
        消息可以批量生产和消费 为提高消息发送和消息消费效率,推荐使用批量消息发送和消费。通常,默认消息消费为批量消费,而消息发送尽可能采用批量发送。同时批量方式可有效减少API调用次数,减少服务使用费用。 如下面两张示意图对比所示,消息批量生产与消费,可以减少API调用次数,节约资源。 图 消息批量生产(发送)与消费 说明 批量发送消息时,单次不能超过10条消息,总大小不能超过512KB。 批量生产(发送)消息可以灵活使用,在消息并发多的时候,批量发送,并发少时,单条发送。这样能够在减少调用次数的同时保证消息发送的实时性。 图 消息逐条生产(发送)与消费 此外,批量消费消息时,消费者应按照接收的顺序对消息进行处理、确认,当对某一条消息处理失败时,不再需要继续处理本批消息中的后续消息,直接对已正确处理的消息进行确认即可。 巧用消费组协助运维 用户使用DMS服务作为消息管理系统,查看队列的消息内容对于定位问题与调试服务是至关重要的。 当消息的生产和消费过程中遇到疑难问题时,通过创建不同消费组可以帮助定位分析问题或调试服务对接。用户可以创建一个新的消费组,对队列中的消息进行消费并分析消费过程,这样不会影响其他服务对消息的处理。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        如何提高消息处理效率
      • 1
      • ...
      • 9
      • 10
      • 11
      • 12
      • 13
      • ...
      • 242
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      推荐文档

      删除

      法律法规

      入门教程⑤:策略路由

      加入会议

      术语解释

      JAVA API

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号