云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微消息队列MQTT版_相关内容
      • 计费类
        如何为购买的消息队列RocketMQ实例续费? 为防止资源到期或者浪费,已经购买包月实例的用户,可执行续费操作,延长 RocketMQ实例的有效期,也可以设置到期自动续费的相关操作。 开通的RocketMQ实例资源包何时生效? 天翼云分布式消息服务RocketMQ资源包在客户支付成功之后,系统经过初始化完成后即可生效使用。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        常见问题
        计费类
      • 探针监控
        本文主要介绍探针监控 本章节介绍APM采集的探针监控指标的类别、名称、含义等信息。 表探针监控指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 探针数据(detail,探针数据指标集。) type 数据类型 探针上报的数据类型 ENUM LAST 探针数据(detail,探针数据指标集。) discardBytes 丢弃字节数 该数据类型的丢弃字节数 Byte INT SUM 探针数据(detail,探针数据指标集。) discardCount 丢弃次数 该数据类型的丢弃次数 INT SUM 探针数据(detail,探针数据指标集。) errorBytes 发送失败字节数 该数据类型的发送失败字节数 Byte INT SUM 探针数据(detail,探针数据指标集。) errorCount 发送失败次数 该数据类型的发送失败次数 INT SUM 探针数据(detail,探针数据指标集。) maxBytes 最大字节数 该数据类型的最大发送字节数 Byte INT MAX 探针数据(detail,探针数据指标集。) maxQueueSize 队列最大长度 该数据类型发送队列最大长度 INT MAX 探针数据(detail,探针数据指标集。) sendBytes 发送成功字节数 该数据类型发送成功字节数 Byte INT SUM 探针数据(detail,探针数据指标集。) sendCount 发送成功次数 该数据类型发送成功次数 INT SUM 探针数据(detail,探针数据指标集。) sendTotalTime 总发送时间 该数据类型的总发送时间 ms INT SUM 探针数据(detail,探针数据指标集。) slowTime 最慢发送时间 该数据类型最慢发送时间 ms INT MAX 异常(exception,异常指标集。) causeType 异常类 异常发生类 ENUM LAST 异常(exception,异常指标集。) type 类型 异常类型 ENUM LAST 异常(exception,异常指标集。) count 次数 异常次数 INT SUM 异常(exception,异常指标集。) message 消息 异常消息 STRING LAST 异常(exception,异常指标集。) stackTrace 堆栈 异常堆栈 CLOB LAST 服务端连接监控(transfer,服务端连接监控指标集。) host 主机 主机信息 ENUM LAST 服务端连接监控(transfer,服务端连接监控指标集。) connectIp 连接ip 连接ip STRING LAST 服务端连接监控(transfer,服务端连接监控指标集。) ipList ip列表 所有ip列表 STRING LAST 服务端连接监控(transfer,服务端连接监控指标集。) isConnected 是否连接 是否连接 INT LAST 服务端连接监控(transfer,服务端连接监控指标集。) rt 响应时间 响应时间 INT AVG 队列监控(repository,队列监控指标集。) monitorQueueSize 监控数据队列大小 监控数据队列大小 INT SUM 队列监控(repository,队列监控指标集。) monitorObjectSize 监控数据内存大小 监控数据内存大小 INT SUM 队列监控(repository,队列监控指标集。) traceQueueSize 调用链数据队列大小 调用链数据队列大小 INT SUM 队列监控(repository,队列监控指标集。) traceObjectSize 调用链数据内存大小 调用链数据内存大小 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        探针监控
      • 消费者
        实例的创建和销毁 1.使用CTGFactory进行创建实例【强制规范】。 2.Consumer是重量级的实例,每次创建、销毁都会消耗系统资源,建议系统 启动的时候创建,系统退出的时候关闭,禁止每次消费消息都创建新的实例【强制规范】。 多消费组消费 一个Topic,可以使用多个消费组消费消息,每个消费组将在服务端独立保存进度。 集群消费意味着多个消费者均衡消费Topic的消息,由于经常不同的程序由多个开发者进行研发和调试,如果使用同一个消费组,在调试过程中存在被其他程序消费者消费的可能,因此应该尽量避免多种类型的应用程序使用同一个消费组。 消费位置设置 消费位置重置可通过控制台进行按时间重置,客户端必须离线。 堆积量 不建议高堆积量的消费,为了预防出现高堆积的情况,建议: 1.边生产边消费,如果消费速度跟不上,增加消费者。 2.消费者一直在线,不要等生产了一段时间再开启消费者,这样会造成消费的堆积。 消费并行度 1. 同一个 ConsumerGroup 下,可通过增加 Consumer 实例数量来提高消费的并行度(注意超过主题队列数的 部分Consumer 实例因为分配不到队列而无效),从而提升消费吞吐。 2. 增加单个消费节点的线程数,通过修改Consumer 的参数 consumeThreadMin、consumeThreadMax,增加并发线程个数实现更高的并发度。 3. 批量方式消费,如果业务流程支持批量方式消费处理消息,可设置 consumer的 consumeMessageBatchMaxSize 返回消息个数参数,该参数默认为 1,即一次只消费一条消息。通过调大该参数的值,则可以很大程度上提高消费的吞吐量。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        消费者
      • 连接管理
        介绍分布式消息服务RabbitMQ连接管理内容。 背景信息 RabbitMQ 连接管理的背景信息如下: 生产者连接管理:在 RabbitMQ 中,生产者负责将消息发送到队列中。在高并发的场景下,可能会有大量的生产者与 RabbitMQ 建立连接。因此,连接管理变得至关重要。在这种场景下,需要确保连接的稳定性和可用性,以确保生产者能够持续地发送消息,并避免连接的过度消耗。 消费者连接管理:消费者负责从队列中接收消息并进行处理。在高负载的情况下,可能会有大量的消费者连接到 RabbitMQ。在这种场景下,需要进行连接的管理和优化,以确保消费者能够高效地处理消息,并避免过多的连接占用资源。 连接池管理:为了更好地管理连接,可以使用连接池来对 RabbitMQ 连接进行复用和管理。连接池可以帮助控制连接的数量,避免频繁地创建和销毁连接,提高系统的性能和资源利用率。通过连接池管理,可以确保连接的可用性,并有效地管理连接的生命周期。 连接超时和重连:在网络不稳定或 RabbitMQ 实例发生故障时,连接可能会中断或超时。在这种情况下,需要实现连接的超时和重连机制,以确保连接能够及时地恢复,并保持与 RabbitMQ 的正常通信。通过合理设置连接超时和重连策略,可以提高系统的可靠性和稳定性。 总之,RabbitMQ 连接管理的场景涉及生产者连接管理、消费者连接管理、连接池管理以及连接超时和重连。通过合理的连接管理和优化,可以提高系统的性能、可用性和稳定性,确保消息的可靠传递和处理。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        连接管理
      • 分布式消息服务RabbitMQ事件源
        本文介绍如何在事件总线EventBridge管理控制台添加分布式消息服务RabbitMQ作为事件流中的事件提供方。 前提条件 事件总线EventBridge 开通事件总线EventBridge并委托授权。 分布式消息服务RabbitMQ 开通分布式消息服务RabbitMQ。 创建所需的vhost和queue。 操作步骤 1. 登录事件总线管理控制台。 2. 在左侧导航栏,单击事件流。 3. 在事件流页面,单击创建事件流。 4. 在事件源(Source)配置 面板,事件提供方 选择分布式消息服务RabbitMQ,选择vhost和queue等配置然后单击确认,如图1所示。 图1 创建事件流时选择分布式消息服务RabbitMQ为事件提供方 参数说明 参数 说明 示例 RabbitMQ实例 选择分布式消息服务RabbitMQ实例。 instancexxx RabbitMQ vhost 选择分布式消息服务RabbitMQ vhost。 / RabbitMQ queue 选择分布式消息服务RabbitMQ queue。 queuexxx 事件示例 plaintext { "id": "b5771f766cdf48edb1bad15418c", "source": "ctyun:rabbitmq", "specversion": "1.0", "subject": "ctyun:rabbitmq:bb9fdb4205xxxxx610242ac110002:16789:queue:topicqueue", "time": "20240305T13:52:18.374Z", "datacontenttype": "application/json;charsetutf8", "type": "ctyun.rabbitmq.topic.sendMessage", "ctyunregion": "bb9fdb4205xxxxx610242ac110002", "ctyunaccountid": "123456789", "data": { "envelope": { "messageId": "xx", "contentEncoding": "UTF8", "contentType": "application/json" }, "body": { "key": "value" }, "props": { "deliveryTag": 98, "exchange": "", "redeliver": false, "routingKey": "housekeeping" } } } data字段包含的参数解释如下表所示: 参数 类型 示例值 描述 props Object 详见props字段参数解释 消息属性,详见props字段参数解释。 envelope Object 详见envelope字段参数解释 消息的envelope信息,详见envelope字段参数解释。 body Object {"key":"value"} 消息体,默认以JSON格式编码。 data 字段下envelope属性包含的参数解释如下表所示: 参数 类型 示例值 描述 deliveryTag Integer 98 消息的Tag。 exchange String / 消息的Exchange。 redeliver Boolean false 是否支持重发消息。取值说明如下: true:支持。 false:不支持。 routingKey String housekeeping 消息的路由规则。 data 字段下props属性包含的参数解释如下表所示: 参数 类型 示例值 描述 contentEncoding String utf8 消息内容编码。 messageId String f7622d51e19841dea07277c1ead7 消息ID。 contentType String application/json 消息contentType。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件源
        分布式消息服务RabbitMQ事件源
      • 【重要】默认安全组策略优化调整
        为了进一步提升云服务的安全性,加强实例访问的默认保护机制,对新创建MQTT实例的默认安全组策略进行优化调整。 调整内容 自本公告发布之日起, 新开通MQTT实例使用的安全组未配置vpc内入方向安全组规则,将默认禁止同VPC内访问MQTT实例服务端口。此变更旨在遵循最小权限安全原则,降低因配置疏忽导致的安全风险。 影响说明 若您使用的安全组未进行额外配置,新建的实例将无法被同VPC内的云主机访问。 应对措施 如需恢复VPC内访问,请您手动配置安全组规则,具体操作如下: 在安全组入方向规则中添加以下策略: 授权策略:允许。 协议类型:TCP。 端口范围:MQTT实例服务端口。 源地址:您的VPC网段(如:192.168.0.0/16)。 配置完成后,同VPC内的云主机即可正常访问MQTT实例服务。 建议 为保障业务安全,建议您根据实际需求精确设置访问源IP或网段,避免开放不必要的访问权限。 此次调整仅影响新创建的实例,已有实例的访问策略保持不变,不受此次调整影响。感谢您对云服务安全的支持与理解。如有疑问,请联系技术支持。 特此公告。
        来自:
        帮助文档
        分布式消息服务MQTT
        服务公告
        2025年
        【重要】默认安全组策略优化调整
      • 全局字典相关函数
        ctyun.dict.DICT.lpush 函数信息详见下表: 项目 描述 语法 length, err DICT:lpush(keyname, value) 作用 消息队列操作:将string或number从头部插入key的列表中,并返回列表元素的个数。若key不存在则先创建key,存在但不是列表返回nil且err为“value not a list”。 入参 keyname:设置内容的键。 value:设置内容的值。 返回值 length:返回列表元素的个数。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local length, err cats:lpush("Marry", 1) ctyun.dict.DICT.rpush 函数信息详见下表: 项目 描述 语法 length, err DICT:rpush(keyname, value) 作用 消息队列操作:与lpush类似,只是元素会从尾部插入。 入参 keyname:设置内容的键。 value:设置内容的值。 返回值 length:返回列表元素的个数。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local length, err cats:rpush("Marry", 1) ctyun.dict.DICT.lpop 函数信息详见下表: 项目 描述 语法 value, err DICT:lpop(keyname) 作用 消息队列操作:移除并返回key列表的第一个值;若key不存在则返回nil,key存在但不是列表则返回nil且err为“value not a list”。 入参 keyname:设置内容的键。 返回值 value:设置内容的值。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local value, err cats:lpop("Marry")
        来自:
        帮助文档
        CDN加速
        用户指南
        UDFScript用户自定义脚本
        UDFScript函数说明
        全局字典相关函数
      • 全局字典相关函数
        ctyun.dict.DICT.lpush 函数信息详见下表: 项目 描述 语法 length, err DICT:lpush(keyname, value) 作用 消息队列操作:将string或number从头部插入key的列表中,并返回列表元素的个数。若key不存在则先创建key,存在但不是列表返回nil且err为“value not a list”。 入参 keyname:设置内容的键。 value:设置内容的值。 返回值 length:返回列表元素的个数。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local length, err cats:lpush("Marry", 1) ctyun.dict.DICT.rpush 函数信息详见下表: 项目 描述 语法 length, err DICT:rpush(keyname, value) 作用 消息队列操作:与lpush类似,只是元素会从尾部插入。 入参 keyname:设置内容的键。 value:设置内容的值。 返回值 length:返回列表元素的个数。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local length, err cats:rpush("Marry", 1) ctyun.dict.DICT.lpop 函数信息详见下表: 项目 描述 语法 value, err DICT:lpop(keyname) 作用 消息队列操作:移除并返回key列表的第一个值;若key不存在则返回nil,key存在但不是列表则返回nil且err为“value not a list”。 入参 keyname:设置内容的键。 返回值 value:设置内容的值。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local value, err cats:lpop("Marry")
        来自:
        帮助文档
        全站加速
        用户指南
        UDFScript用户自定义脚本
        UDFScript函数说明
        全局字典相关函数
      • 业务单元化双活实践
        1、准备好资源、环境与应用 1.1、资源开通 应用容灾多活是构建在已有应用之上的管控,协同其他云产品,但不负责其他云产品的生命周期,需要您提前规划与创建。 您可以根据规划的物理架构,在指定区域或可用区提前开通与创建应用部署所需的资源与服务,例如虚拟私有云VPC 、微服务云应用平台MSAP 和弹性云主机ECS等。 1.2、网络互通 数据双活架构可能存在跨数据中心调用的场景,需要您提前打通两个数据中心之间的网络。 您可以根据选定的物理架构,选择合适粒度的网络连通方案,例如连通两个区域的云间高速 产品和连通两个VPC的对等连接产品等。 1.3、应用准备 在这个示例中,对应用的部署方式没有强制要求,可以开通弹性云主机ECS实例 自行部署应用服务,也可以开通微服务云应用平台MSAP 进行应用部署管理,本示例使用微服务云应用平台MSAP 。 还需要您开通: 关系型数据库MySQL版 实例,并结合数据传输服务DTS进行业务数据跨中心同步。 微服务引擎注册配置中心用于注册中心和管控通道。 微服务引擎云原生网关用于前端服务转发。 本示例将以上应用进行单元化改造,改造后云上部署架构如下。 图 部署架构
        来自:
        帮助文档
        应用高可用
        最佳实践
        应用容灾多活
        业务单元化双活实践
      • 创建RocketMQ实例
        本文介绍分布式消息服务RocketMQ入门指引的创建RocketMQ实例内容。 实例介绍 RocketMQ实例订购支持用户自定义规格和自定义特性,可根据业务需要可定制相应规格的RocketMQ实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 1、在产品详情页点击立即开通按钮,或者进入消息管理控制台创建实例,进入订购分布式消息RocketMQ页面。 2、点击订购实例进入相应页面,左上角选择目标资源池。 1)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 2)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、1年。该模式提供自动续期功能。 计费模式为按需计费,则该选项隐藏无需选择。 3)引擎类型目前默认选择RocketMQ引擎,完全兼容开源客户端的高性能低延时的消息队列。ctgmq引擎已调整为白名单特性,如需了解该引擎请联系技术支持。 4)版本号默认4.9,实例创建后,不支持变更版本。建议服务端版本和客户端版本保持一致。 5)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 6)提供集群版和单机版两种规格选择模式,单机版实例面向用户体验和业务测试场景,无法保证性能和高可用。如果需要在生产环境使用RocketMQ实例,建议购买集群版实例。 7)CPU架构支持X86计算和ARM计算两类。 8)选择X86计算,可以选择计算增强型(默认Intel)和海光计算增强型主机;选择ARM计算,可以选择鲲鹏计算增强型主机。通用型规格已调整为白名单特性,如需了解该规格参数请联系技术支持。 9)代理规格:针对不同主机类型,RocketMQ提供不同性能表现的规格参数。 10)代理数量:选择单机版该选项不展示,选择集群版此选择支持116代理选择。 11)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/超高IO两类。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 12)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 13)选择已有子网,若无子网,点击创建跳转到子网页面新增。 14)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增。 15)填写实例名称,系统默认实例名称,用户可直接修改。 16)选择企业项目,创建新的企业项目可以到IAM配置。 17)创建实例标签,标签由区分大小写的键值对组成,您最多可以设置 20 个标签 3、 填写完上述信息后,单击“下一步”,进入费用确认页面。 4、 确认实例信息无误后,提交请求。 5、 在实例列表页面,查看RocketMQ实例是否创建成功。创建实例大约需要3到15分钟,此时实例状态为“创建中”。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        创建RocketMQ实例
      • 订购与退订
        本章节介绍微服务云应用平台的订购与退订操作 订购 1. 进入微服务云应用平台产品介绍页,点击立即开通,即可进入到订购页面。 2. 在订购页面,默认计费模式为按需计费,版本类型为专业版,微服务云应用平台开放免费订购,不再按照应用实例数收取管理费用,您可直接点击下一步进行订单确认。 退订 微服务云应用平台当前提供免费订购,您无需进行退订操作。 注意 若您在使用相关模块能力时,订购了其它关联产品,会收取相应费用,您需要进行关联产品的退订操作。
        来自:
        帮助文档
        微服务云应用平台
        购买指南
        订购与退订
      • 批量发布消息
        请求示例 请求url 请求头header { "regionId":"bb9fdb42056f11eda1610242ac110002" } 请求体body { "prodInstId": "445d30ce3d5d40a2a79dc444a8c83859", "data": [ { "topics": "t/a,t/b,t/c", "clientid": "mqtta", "qos": 0, "payload": "test messsage" } ] } 响应示例 { "statusCode":800 } 状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        批量发布消息
      • 使用Logstash处理数据
        配置处理任务 1. 在云搜索服务实例创建页面选择Logstash实例管理,选择已经加装的Logstash实例。 2. 选择“管道管理”,选择“新建管道”。 3. 在“管道配置”窗口中,配置相关的管道配置。 python input { kafka { autooffsetreset > "latest" bootstrapservers > "ip:port,ip:port,ip:port" consumerthreads > 88 groupid > "yourgroupid" topics > ["yourkafkatopic"] codec > json } } filter { } output { elasticsearch { hosts > ["ip:port"] index > "yourindexname%{+YYYY.MM.dd}" user > "yourusername" password > "yourpassword" } } input部分用于定义数据的来源,即Logstash从哪里获取数据。这里以Kafka为例: autooffsetreset:会决定从哪个位置开始消费消息 bootstrapservers:Kafka集群的地址 consumerthreads:控制 Kafka 消费者线程的数量 groupid:消费者组ID topics:Kafka的主题列表 codec:指定数据格式 filter部分可以进行消息处理、数据解析等操作。根据实际业务规则来处理。 output部分用于将处理后的数据推送到外部系统(如数据库、消息队列、搜索引擎等)。这里以Elasticsearch为例: hosts:指定Elasticsearch的地址。 index:指定存储到Elasticsearch的索引名称,可以使用日期变量%{+YYYY.MM.dd} 来动态生成基于日期的索引。 user/password:提供Elasticsearch用户名和密码 配置完点击“预校验”,预校验会使用Logstash的语法功能来检测基础的语法,不检测逻辑和连通性。 预校验通过后可以执行后续操作。 4. 在“参数配置”中,配置相关的参数。 参数 说明 管道名称 只能包含字母、数字、中划线或下划线,且必须以字母开头,限制430个字符,实例内唯一 管道描述 限制长度50 管道工作线程数 控制Logstash同时处理事件的线程数 管道批处理大小 单个线程从input部分收集的最大事件数 管道批处理延迟 不满足批处理大小最大等待时间 队列类型 memory模式、persisted模式 memory:内存队列 persisted:磁盘队列 队列最大字节数 persisted模式生效 队列最大存储大小 队列检查点写入数 persisted模式生效 队列检查点数量 5. 启动处理任务 配置完参数后点击“保存并部署”。就启动了读取Kafka中的数据转换后写入到Elasticsearch的管道任务。 等到管道“运行中”可以尝试配置的Kafka的topics中导入一些数据,例如使用Filebeat或其他程序。 可以通过Curl命令查看logstash中配置的索引名,在Elasticsearch实例是否有数据进来。 plaintext curl " 6. 停止任务 当任务执行结束后,可以在“管道管理”页面,点击“停止”,会执行停止管道操作。
        来自:
        帮助文档
        云搜索服务
        快速入门
        使用Logstash处理数据
      • 与开源RocketMQ的差异
        本章节介绍了分布式消息服务RocketMQ与开源RocketMQ的差异。 分布式消息服务RocketMQ在兼容开源RocketMQ基础上,对版本特性做了一定程度的定制和增强。 表1 分布式消息服务RocketMQ与开源RocketMQ的差异说明 功能项 分布式消息服务RocketMQ 开源RocketMQ 延迟消息/定时消息 延迟消息:支持18个固定延迟时长,最长延迟2小时。 定时消息:支持任意延迟时长,最长延迟1年。 仅支持18个固定延迟时长,最长延迟2小时。 顺序消息 支持 支持 消息重试 支持 支持 死信消息 支持 支持 集群消费 支持 支持 广播消费 支持 支持 死信队列 支持 支持 消费重置 支持 支持 消息查询 支持 支持 加密传输 支持 支持 消息轨迹 支持 支持 事务消息 支持,事务消息大量堆积时,性能提升10倍 支持,事务消息大量堆积时,性能较差 死信导出 支持 不支持 数据转储 待规划 不支持 实例诊断 一键诊断消费问题 不支持 实例监控 支持以图表形式查看历史值,18+监控项 仅支持查看当前监控值,不支持CPU、内存等监控指标 ACL访问控制 灵活配置,一键生效 配置复杂 运维扩容 极速扩容,一键生效 手动扩容,操作复杂
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        与开源RocketMQ的差异
      • 支持监控的服务列表
        分类 服务 命名空间 维度 监控指标参考文档 企业中间件 分布式消息服务 SYS.DMS 请参考右侧相关文档链接页面。
        来自:
        帮助文档
        云监控服务
        用户指南
        支持监控的服务列表
      • 如何配置MQTT开源Java SDK的客户端自动连接?
        本文介绍如何配置MQTT开源Java SDK的客户端自动连接 要配置MQTT开源Java SDK的客户端自动连接,你需要设置以下参数和逻辑: 1、 设置自动重连:首先,你需要设置客户端的自动重连功能。在MQTT开源Java SDK中,你可以使用setAutomaticReconnect(true)方法来启用自动重连功能。这将使客户端在连接丢失后自动尝试重新连接。 MqttClient client new MqttClient(brokerUrl, clientId); client.setAutomaticReconnect(true); 2、 设置重连间隔:接下来,你可以设置自动重连的时间间隔。这将确定客户端在连接丢失后尝试重新连接的时间间隔。在MQTT开源Java SDK中,你可以使用setReconnectDelay方法来设置重连间隔,单位为毫秒。 client.setReconnectDelay(5000); // 设置重连间隔为5秒 3、 处理连接丢失事件:当连接丢失时,你可以通过实现MqttCallback接口来处理连接丢失事件。在connectionLost方法中,你可以添加自定义的处理逻辑,例如记录日志或触发重新连接。 client.setCallback(new MqttCallback() { @Override public void connectionLost(Throwable cause) { // 处理连接丢失事件 // 添加自定义的处理逻辑,例如记录日志或触发重新连接 } // 其他回调方法... }); 4、 处理重新连接事件:当客户端尝试重新连接时,你可以在reconnectComplete方法中添加自定义的处理逻辑。这个方法会在客户端成功重新连接到MQTT Broker后被调用。 client.setCallback(new MqttCallback() { // 其他回调方法... @Override public void reconnectComplete(boolean reconnect) { // 处理重新连接完成事件 // 添加自定义的处理逻辑 } }); 通过以上配置和逻辑,你可以实现MQTT开源Java SDK的客户端自动连接功能。当连接丢失时,客户端将自动尝试重新连接,并在重新连接完成后触发相应的事件回调方法。你可以根据需要添加自定义的处理逻辑来处理连接丢失和重新连接事件。
        来自:
        帮助文档
        分布式消息服务MQTT
        常见问题
        操作类
        如何配置MQTT开源Java SDK的客户端自动连接?
      • 名词解释
        本节主要介绍分布式消息服务Kafka常用术语解释。 代理(Broker) kafka集群包含一个或多个消息处理服务器,该服务器成为Broker,提供数据刷盘等核心功能。可以横向扩展、在线扩容以提高集群性能。 主题(Topic) 每条发布到Kafka 集群的消息都有一个主题,这个主题被称为 Topic。通过 Topic 可以对消息进行分类。每个 Topic 可以由一个或多个分区(Partition)组成,存储于一个或多个Broker 上。 分区(partition) 消息分区是物理上的概念,一个Topic可以分为多个partition,每个partition是一个有序的队列。partition中的每条消息都会被分配一个有序的id(offset)。 生产者(Producer) 消息和数据生成者,一般为应用调用API进行消息生产,并向Kafka的一个Topic发布消息。 消费者(Consumer) 消息订阅者,也成为消息消费者,负责向 Kafka Broker 读取消息并进行消费。 消费组(Consumer Group) 一类Consumer的集合名称,这类Consumer通常消费一类消息,且消费逻辑一致,Consumer Group 和 Topic 的关系是 N:N,同一个 Consumer Group 可以订阅多个 Topic,同一个 Topic 也可以被多个 Consumer Group 订阅。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        名词解释
      • 注册配置中心
        本章节介绍注册配置中心RCC子产品的产品规格 MSE注册配置中心提供了Nacos、Zookeeper 两种引擎的实例供您选用。不同引擎可选择的具体规格参数有差别,典型版本的规格详情和预估的处理能力详见下述列表,您可以参考下述表格来选择开通适合您业务的注册配置中心。 说明 1. 实例的规格系列分为单机版、集群版和企业版,暂不支持从单机版升级到集群版或者从升级机版、集群版到企业版; 2. 单机版只提供单节点,不具备高可用性,不适用于生产环境也不支持规格升降配操作,无法切换到集群版本,请提前评估。 实例类型 企业版(Nacos 引擎) 完全兼容Nacos3.1开源能力,支持MCP服务注册和管理。 默认3节点集群,可选择多可用区部署,提供高可用能力。 实例安全加固,提供完备的可观测能力和自动化运维服务。 适用于对安全、高可用和性能有高要求的所有环境(开发、测试、生产)。 集群版 深度兼容开源能力,支持高可用,提供安全、可观测能力及自动化运维服务。 默认3节点,适用于开发、测试、生产环境。 单机版 兼容开源能力,提供默认可观测能力和自动化运维服务。 只提供单节点,适用于开发、测试环境。 实例能力 Nacos 微服务注册中心Nacos引擎包括配置中心和注册中心,提供动态配置、服务发现和服务健康监测等简单易用的特性,经过实践检验具备高性能和高可用性,帮助用户管理配置、注册和发现微服务,更加快捷方便地构建、交付和管理微服务平台。 Nacos 企业版支持MCP服务标准化与可视化管理和存量 HTTP 服务一键转换,快速对接 MCP 生态,适配微服务架构升级需求。通过底层核心资源独享提供更高规格的配额能力,相对于开源提供更强的性能和更高的可用性。
        来自:
        帮助文档
        微服务引擎
        产品简介
        产品规格
        注册配置中心
      • 注册配置中心(1)
        本章节介绍注册配置中心RCC子产品的产品规格 MSE注册配置中心提供了Nacos、Zookeeper 两种引擎的实例供您选用。不同引擎可选择的具体规格参数有差别,典型版本的规格详情和预估的处理能力详见下述列表,您可以参考下述表格来选择开通适合您业务的注册配置中心。 说明 1. 实例的规格系列分为单机版、集群版和企业版,暂不支持从单机版升级到集群版或者从升级机版、集群版到企业版; 2. 单机版只提供单节点,不具备高可用性,不适用于生产环境也不支持规格升降配操作,无法切换到集群版本,请提前评估。 实例类型 企业版(Nacos 引擎) 完全兼容Nacos3.1开源能力,支持MCP服务注册和管理。 默认3节点集群,可选择多可用区部署,提供高可用能力。 实例安全加固,提供完备的可观测能力和自动化运维服务。 适用于对安全、高可用和性能有高要求的所有环境(开发、测试、生产)。 集群版 深度兼容开源能力,支持高可用,提供安全、可观测能力及自动化运维服务。 默认3节点,适用于开发、测试、生产环境。 单机版 兼容开源能力,提供默认可观测能力和自动化运维服务。 只提供单节点,适用于开发、测试环境。 实例能力 Nacos 微服务注册中心Nacos引擎包括配置中心和注册中心,提供动态配置、服务发现和服务健康监测等简单易用的特性,经过实践检验具备高性能和高可用性,帮助用户管理配置、注册和发现微服务,更加快捷方便地构建、交付和管理微服务平台。 Nacos 企业版支持MCP服务标准化与可视化管理和存量 HTTP 服务一键转换,快速对接 MCP 生态,适配微服务架构升级需求。通过底层核心资源独享提供更高规格的配额能力,相对于开源提供更强的性能和更高的可用性。
        来自:
      • 约束与限制
        号“ ”,会导致监控数据无法展示。 是否支持延迟队列 不支持 消费组 表消费组约束与限制 限制项 约束与限制 是否需要创建消费组、消费者、生产者 不需要单独创建消费组、生产者和消费者,在使用时自动生成,实例创建后,直接使用即可。 重置消费进度 重置消费进度可能会导致重复消费。 消费组名称 消费组名称开头包含特殊字符,例如下划线“”、 号“ ”,会导致监控数据无法展示。 消息 表 消息约束与限制 限制项 约束与限制 消息大小 生产消息的最大长度为10M,超过10M会导致生产失败。 用户 表用户约束与限制 限制项 约束与限制 创建用户的数量 一个Kafka实例最多创建20个SASLSSL用户。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        约束与限制
      • 入门指引
        本章节将为您介绍分布式消息服务RabbitMQ入门的基本流程,主要包括环境准备、创建资源、编译工程生产消费等环节,帮助您快速上手RabbitMQ。 操作流程 步骤说明 1、 环境准备 创建RabbitMQ实例先要准备好虚拟私有云、子网和安全组,可选弹性公网IP。 2、 创建实例 在订购分布式消息RabbitMQ填写和确认实例名称、引擎类型、计费模式等信息,确认费用后点击下一步,等待开通流程结果通知成功后完成创建实例。 3、 创建资源 一个新的应用接入消息队列需要先创建相关资源,包括:Vhost、User、Exchange、Queue。 4、 编译工程生产消费 以上工作完成后,在客户端应用编译工程进行生产消费,包括引入依赖、绑定BindingKey、生产消息和消费消息。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        入门指引
      • 购买终端节点
        服务后缀 服务说明 zos dns msgc crs apm lts faas gts 全局事务:该服务由天翼云全局事务服务提供,全局事务服务是一款专为实现分布式环境下高性能事务一致性而设计的服务工具。它可以与MySQL、PostgreSQL等数据源,以及Spring Cloud、Dubbo等RPC框架和消息队列等中间件产品配合混合使用,以支持用户各种分布式数据库事务、多库事务、消息事务和服务链路级事务的组合需要 prome 应用性能监控:Prometheus监控为云上托管Prometheus服务,可为您的容器集群提供多种开箱即用的预置监控大盘与监控规则,实现免搭建的高效运维场景。 ags Agent沙箱:Agent 沙箱提供安全、弹性、可扩展的云端沙箱运行环境。在使用Agent沙箱产品时,通过连接该终端节点服务,可实现在内网调用沙箱服务。
        来自:
        帮助文档
        VPC终端节点
        用户指南
        终端节点管理
        购买终端节点
      • 使用限制
        本文主要介绍应用性能监控的各语言使用限制。 自研JAVA探针使用限制 类型 名称 版本 工具 JDK jdk8、jdk11、jdk17 通讯协议 httpclient apache httpclient2.0+、apache asynchttpclient1.9+ Java框架 spring 3.1.x~5.0.x Java框架 springboot 1.2.x~1.5.x、2.0.4~2.0.9 Java框架 Dubbo 2.7+ Java框架 gRPC 1.6+ 数据库 MySQL mysqlconnectorjava 5.1.X 数据库 Oracle ojdbc5、ojdbc6、ojdbc14 数据库 druid 1.0 数据库 c3p0 0.9.2+ 数据库 dbcp2 2.0+ 数据库 JDBC java8+ web服务器 Tomcat 7.0.x, 8.5.x, 9.0.x, 10.0.x 消息队列 RabbitMQ springrabbit1.0+、amqpclient 2.7+ 消息队列 Kafka kafkaproducer 0.11+、kakfaconsumer 0.11+、kafkastream 0.11+ NoSQL Redis jedis 1.4+,lettuce 4.0+ NoSQL Mongodb 3.1+ NoSQL ElasticSearch 5.0+ Rest Client Common HTTP java http client java11+、HttpURLConnection java8+ Go使用限制 Opentelemetry支持的框架列表 OpenTelemetry提供了若干半自动埋点插件,支持为常见的框架自动创建Span。
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        使用限制
      • 支持的功能模块
        本章节介绍应用容灾多活中不同的应用架构支持的功能模块。 应用架构 支持的功能模块 应用双活 管控通道 注册配置中心RCC 应用双活 接入层 云原生网关CGW 应用双活 服务层 SpringCloud 应用双活 服务层 Dubbo 应用双活 数据层 关系型数据库MySQL版 应用双活 数据层 关系型数据库PostgreSQL版 应用双活 消息层 分布式消息服务RocketMQ 数据双活 管控通道 注册配置中心RCC 数据双活 接入层 云原生网关CGW 数据双活 服务层 SpringCloud 数据双活 服务层 Dubbo 数据双活 数据层 关系型数据库MySQL版 数据双活 数据层 关系型数据库PostgreSQL版 数据双活 消息层 分布式消息服务RocketMQ
        来自:
        帮助文档
        应用高可用
        购买指南
        应用容灾多活计费说明
        支持的功能模块
      • 消息持久化
        本章节主要介绍分布式消息服务RabbitMQ的消息持久化。 使用场景 默认情况下,RabbitMQ生产者生产的消息存储在内存中,当节点宕机或重启时,如何确保消息不丢失呢?RabbitMQ通过持久化机制实现,持久化包括Exchange持久化、Queue持久化和Message持久化。 持久化是将内存中的消息写入到磁盘中,以防异常情况导致内存中的消息丢失。但是磁盘的读写速度远不如内存,开启消息持久化后,RabbitMQ的性能会下降。 与惰性队列不同,持久化消息会在磁盘和内存中各存储一份,只有在内存空间不够时,才会将内存中的消息删除,存储到磁盘中。 说明 非持久化Queue、Exchange在重启之后会丢失。 非持久化Message在重启之后会丢失(经过持久化Queue/Exchange的消息不会自动变为持久化消息)。 持久化消息在尚未完成持久化时,如果服务器重启,消息会丢失。 设置Exchange持久化 在RabbitMQ WebUI页面创建Exchange时,设置“durable”为“true”,如图1所示,设置成功后如图2所示。 图1 设置Exchange持久化 图2 持久化的Exchange
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        高级特性
        消息持久化
      • Kafka业务迁移
        介绍分布式消息服务Kafka业务迁移内容。 应用场景 Kafka的业务迁移可以应用在多个领域和场景中,包括但不限于以下几个方面: 数据集成和数据仓库:Kafka可以用作数据集成的中间件,将分散的数据源集中到一个统一的平台上。通过使用Kafka的生产者和消费者,可以实现数据的可靠传输和消费,支持实时的数据集成和数据仓库的建设。 实时数据处理和流处理:Kafka提供了流处理功能,可以对实时数据流进行处理和分析。通过使用Kafka Streams、Apache Flink等流处理框架,可以对数据流进行实时的计算、转换、聚合等操作,实现实时数据处理和实时决策。 异步通信和消息队列:Kafka作为消息队列,可以用于异步通信和解耦系统之间的依赖关系。通过将同步的请求和响应转换为异步的消息,可以提高系统的可伸缩性和响应性能,实现松耦合的系统架构。 日志收集和分析:Kafka可以用作日志收集和分析的中间件,用于接收和传递系统和应用程序的日志数据。通过将日志数据发送到Kafka中,可以实现日志的集中存储和分发。同时,可以使用Kafka的消费者来实时消费和分析日志数据,帮助进行故障排查、性能监控和安全审计等工作。 数据同步和复制:在多个数据中心或分布式系统之间进行数据同步和复制时,可以使用Kafka作为数据的中间传输通道。通过使用Kafka的生产者和消费者,可以实现数据的可靠传输和复制,保证数据的一致性和可用性。 这些只是Kafka业务迁移的一部分应用场景,实际应用中还有很多其他的需求和场景。Kafka的高性能、可靠性和可扩展性使其成为业务迁移的理想选择。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka业务迁移
      • 查询指定客户端
        枚举参数 无 请求示例 请求url 请求头header { "regionId":"bb9fdb42056f11eda1610242ac110002" } 请求体body 无 响应示例 { "statusCode": 800, "returnObj": { "clientid": "mqtt1", "username": "test1", "ipaddress": "33.0.0.5", "port": "56000", "connectedat": "20250101 00:00:00", "disconnectedat": "20250101 00:00:00", "connected": true, "subscriptionscnt": 10 } } 状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        查询指定客户端
      • 查询全部客户端
        枚举参数 无 请求示例 请求url 请求头header { "regionId":"bb9fdb42056f11eda1610242ac110002" } 请求体body 无 响应示例 { "statusCode": 800, "returnObj": [ { "clientid": "mqtt1", "username": "test1", "ipaddress": "33.0.0.5", "port": "56000", "connectedat": "20250101 00:00:00", "disconnectedat": "20250101 00:00:00", "connected": true, "subscriptionscnt": 10 } ] } 状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        查询全部客户端
      • 收发普通消息
        发送消息 参考如下示例代码。 from rocketmq.client import Producer, Message endpoint "${ENDPOINT}" 填写分布式消息服务RocketMQ控制台Namesrv接入点 accesskey "${ACCESSKEY}" 填写AccessKey 在分布式消息服务RocketMQ控制台用户管理菜单中创建的用户ID accesssecret "${SECRETKEY}" 填写SecretKey 在分布式消息服务RocketMQ控制台用户管理菜单中创建的用户密钥 topic "${TOPIC}" 填写Topic,在管理控制台创建 producergroup "${GROUP}" 生产者组group 创建并启动生产者实例 producer Producer(producergroup) producer.setnameserveraddress(endpoint) producer.setsessioncredentials(accesskey, accesssecret, "") producer.start() msg Message(topic) msg.setbody("Hello RocketMQ") msg.setkeys("") 消息key msg.settags("") 消息tag ret producer.sendsync(msg) print(ret.status, ret.msgid, ret.offset) 关闭生产者实例,释放资源 producer.shutdown() 订阅消息 参考如下示例代码。 import time from rocketmq.client import PushConsumer, ConsumeStatus endpoint "${ENDPOINT}" 填写分布式消息服务RocketMQ控制台Namesrv接入点 accesskey "${ACCESSKEY}" 填写AccessKey 在分布式消息服务RocketMQ控制台用户管理菜单中创建的用户ID accesssecret "${SECRETKEY}" 填写SecretKey 在分布式消息服务RocketMQ控制台用户管理菜单中创建的用户密钥 topic "${TOPIC}" 填写Topic,在管理控制台创建 group "${GROUP}" 填写订阅组group,在管理控制台创建 def callback(msg): print(msg.id, msg.body) return ConsumeStatus.CONSUMESUCCESS consumer PushConsumer(group) consumer.setnameserveraddress(endpoint) consumer.setsessioncredentials(accesskey, accesssecret, "") consumer.subscribe(topic, callback) consumer.start() while True: time.sleep(3600) consumer.shutdown()
        来自:
        帮助文档
        分布式消息服务RocketMQ
        开发指南
        Python
        收发普通消息
      • 与其他服务的关系
        专属云(计算独享型) 该服务为专属云Kafka开通前必选服务,在开通了专属云计算独享后,才能在控制台中节点选择此专属云标识的环境,再进入控制台的分布式消息服务,来操作专属云Kafka的开通。 专属云(存储独享型) 该服务为专属云Kafka开通时的可选服务,在进如专属云Kafka的开通过程中,队列实例规格必须在专属云计算独享型,而队列存储的部分支持选择公有云的云盘承载,也可选择已经购买的专属云存储独享型,可根据需求灵活选择。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        产品简介
        与其他服务的关系
      • 业务消息设计:Topic与Tag
        Topic与Tag释义 1)Topic:消息主题,通过 Topic 对不同的业务消息进行分类。 2)Tag:消息标签,用来进一步区分某个Topic下的消息分类,消息队列 RocketMQ允许消费者按照Tag对消息进行过滤,确保消费者最终只消费到他关注的消息类型。 Topic与Tag都是业务上用来归类的标识,区分在于Topic是一级分类,而Tag 可以说是二级分类。 适用场景 什么时候该用topic,什么时候该用tag,可以参考下面的一些考虑进行权衡 考虑消息类型:如普通消息、顺序消息,事务消息、定时(延时)消息,不同消息类型是无法通过tag区分的,这种情况就需要我们创建不同的topic。 业务关联性:如果是不同业务之间没有直关联的消息,建议按照Topic进行区分;而同一个业务只是子类型不一样的消息可以用Tag进行区分。 消息优先级:不同的业务场景可能会导致消费端对于消息的优先级需求不同,有的紧急,有的相对来说对于延时的接收程度更大,不同优先级的消息用不同的Topic进行区分。 消息量级:如果量小但延时要求高的消息,跟超大量级(如万亿)的消息使用同一个Topic,则有可能排队时间过长导致延时无法接受,所以不同量级的消息不要使用不同的tag,需要用不同的Topic。 总结起来就是,在消息分类实践中,有创建多个Topic,以及在同一个Topic下创建多个Tag两种常见做法。一般来说,不同的Topic之间的消息不产生直接业务上的关联,而同一个topic下相互之间产生联系的消息可以选择用tag来区分,一般是相同业务下的不同板块不同类型。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        业务消息设计:Topic与Tag
      • 消费幂等
        RocketMQ无法避免消息重复,原因主要有以下几点: 签收的偏移量是定时(每5秒/次)同步到服务端的。 为保证消息不丢失,SDK每次提交的总是队列未签收的最小偏移量(比如无序消费,offset为1,2,3,4,5 的消息,1,3,4,5消费并已签收,2未签收,签收时最后提交的偏移量将会是2,如果此时,客户端重启,会从2这个位置开始消费)。 有网络交互就不能确保每一次的交互数据都是送达的,为保证数据不丢失就要进行重试,有重试就存在重复的可能。 如果业务对消费重复非常敏感,务必要注意,建议可以采用以下两种方式处理: 业务层面做去重处理,可以根据msgId;如果key字段为业务唯一字段,也可采用key去重。 业务逻辑实现消费幂等,即多次处理同一消息,对业务的影响是幂等的。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        消费幂等
      • 1
      • ...
      • 7
      • 8
      • 9
      • 10
      • 11
      • ...
      • 256
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      公共算力服务

      推荐文档

      分组数据管理

      错误日志

      操作指南

      生产者

      新增实例

      监控节点运行状态

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号