云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RocketMQ版_相关内容
      • 虚拟主机限制管理
        本节介绍了在RabbitMQ实例中如何创建、修改和删除虚拟主机限制策略。 背景信息 RabbitMQ虚拟主机限制管理是一种用于管理RabbitMQ虚拟主机的功能,它允许管理员对虚拟主机的资源和权限进行限制和管理。 虚拟主机是RabbitMQ中的逻辑隔离单位,它允许在同一台RabbitMQ服务器上创建多个独立的消息队列环境。每个虚拟主机都有自己的队列、交换机、绑定和权限设置。通过虚拟主机限制管理,管理员可以对RabbitMQ服务器上的虚拟主机进行细粒度的控制和管理。这有助于确保不同的应用程序或用户之间的隔离性、安全性和资源利用率,提高整个消息队列系统的可靠性和性能。 操作步骤 1.登录管理控制台。 2.进入RabbitMQ管理控制台。 3.在实例列表页在操作列,目标实例行点击“管理”。 4.点击“集群管理”后点击“虚拟主机限制”到达虚拟主机页面,点击“新建”按钮。 5.点击“新建”后出现以下界面,选择虚拟主机,添加限制策略内容。 限制项参数 说明 maxconnections 最大TCP连接。 maxqueues 最大队列数。 6.在目标虚拟主机限制行点击“删除”或“修改”,即可删除当前虚拟主机策略。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        虚拟主机管理
        虚拟主机限制管理
      • 支持的监控指标
        指标ID 指标名称 指标含义 取值范围 单位 currentbrokers 存活节点数 该指标用于统计Kafka实例中正常运行的实例节点数 0~50 Count currenttopics 主题数 该指标用于统计Kafka实例中已经创建的主题数量。 0~2000 Count currentpartitions 分区数 该指标用于统计Kafka实例中已经使用的分区数量。 0~2000 Count groupmsgs 堆积消息数 该指标用于统计Kafka实例中所有消费组中总堆积消息数。 >0 Count instancebytesinrate 生产流量 该指标用于统计Kafka实例中每秒生产的字节数。 >0 MB/s instancebytesoutrate 消费流量 该指标用于统计Kafka实例中每秒生产的字节数。 >0 MB/s instancemessagesinrate 消息生产速率 该指标用于统计实例每秒生产的消息数。 >0 Count/s instancemessagesoutrate 消息消费速率 该指标用于统计实例每秒消费的消息数。 注意:2025年1月及以后购买的实例,支持此监控项。 >0 Count/s instancerequestqueuesize 实例请求队列长度 该指标用于统计实例请求队列长度。 >0 Count instanceresponsequeuesize 实例响应队列长度 该指标用于统计实例响应队列长度。 >0 Count instanceconnectionusage 实例连接数使用率 该指标用于统计实例连接数使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancetopicusage 实例用户主题数使用率 该指标用于统计实例租户主题使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancepartitionusage 实例用户主题分区数使用率 该指标用于统计实例租户主题分区使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancegroupusage 实例用户消费组数使用率 该指标用于统计实例租户消费组使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instanceproducelimit 实例生产限流次数 该指标用于统计实例生产限流次数 注意:2025年6月及以后购买的实例,支持此监控项。 >0 Count instanceconsumelimit 实例消费限流次数 该指标用于统计实例消费限流次数 注意:2025年6月及以后购买的实例,支持此监控项。 >0 Count
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        可观测
        监控信息
        支持的监控指标
      • 云审计服务支持的RabbitMQ操作列表
        操作事件 读写类型 创建虚拟主机 写事件 删除虚拟主机 写事件 创建交换器 写事件 删除交换器 写事件 创建队列 写事件 删除队列 写事件 清空队列消息 写事件 队列生产拨测 写事件 队列消费拨测 写事件 新建用户 写事件 删除用户 写事件 创建绑定 写事件 删除绑定 写事件 配置虚拟主机主题权限 写事件 删除虚拟主机主题权限 写事件 配置虚拟主机限制 写事件 删除虚拟主机限制 写事件 配置虚拟主机权限 写事件 删除虚拟主机权限 写事件 插件启停 写事件 更新配置 写事件 实例开通 写事件 实例退订 写事件 实例冻结 写事件 实例注销 写事件 实例按需转包周期 写事件 实例包周期转按需 写事件 实例扩容 写事件 实例缩容 写事件
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的RabbitMQ操作列表
      • 计费类
        本文为您介绍分布式消息服务MQTT的计费类常见问题。 如何为购买的消息队列MQTT实例续费? 为防止资源到期或者浪费,已经购买包月实例的用户,可执行续费操作,延长MQTT实例的有效期,也可以设置到期自动续费的相关操作。 开通的MQTT实例资源何时生效? 天翼云分布式消息服务MQTT资源在客户支付成功之后,系统经过初始化完成后即可生效使用。
        来自:
        帮助文档
        分布式消息服务MQTT
        常见问题
        计费类
      • 单一活跃消费者
        介绍分布式消息服务RabbitMQ单一活跃消费者功能。 使用场景 在默认direct模式下, 多个消费者订阅一个queue,消息会轮流发送至每个消费者。单一消费者模式下,消息只由一个消费者消费,除非该改消费者出现异常。由此可以保证消息消费的有序性。 使用示例 以下为java客户端示例,通过在声明队列时配置xsingleactiveconsumer参数实现单一活跃消费者。 Map arguments newHashMap(); arguments.put("xsingleactiveconsumer", true); channel.queueDeclare("testqueue", false, false, false, arguments);
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        高级特性
        单一活跃消费者
      • 数据采集
        采集项名称 最大值 监控项默认最大行数 500行 SQL默认长度限制 2000字符 SQL Result Body体默认采集数量限制 100个 SQL Result Body体默认采集内容大小限制 999字符 Redis Body体默认长度限制 100字符 Mongo最大集群数 10个 Mongo command默认长度限制 2000字符 Hbase command默认长度限制 500字符 Es RestClient上限 10个 Cassandra CQL默认长度限制 2000字符 Cassandra Session上限 10个 Kafka Mbean采集ObjectName上限 100个 Kafka ClientId对应IP缓存上限 100个 RabbitMq连接地址上限 20个 RabbitMq每个地址最大缓存连接数 100个 RabbitMq Consumer上限 500个 RabbitMq每个Consumer最大缓存Channel数 100个 RabbitMq每个Channel没有ACK的消息数 3000条 RabbitMq缓存的手动ACK Consumer个数 20个 RocketMq PID上限 20个 RocketMq ClientId上限 20个 Jetcd Tag最大长度 500字符 HttpClient连接池上限 10条 连接池调用链默认上报时间阈值 1毫秒 Dubbo Invocation长度限制 500字符 Dubbo Attachment长度限制 500字符 URL Body体默认长度限制 9999字符 URL采集应用code body长度限制 0字符 Java Method Body体长度限制 8192字符
        来自:
        帮助文档
        应用性能管理
        产品介绍
        数据采集
      • 产品价格
        本章节介绍分布式消息服务RabbitMQ的产品价格。 分布式消息服务RabbitMQ的产品价格,分为老规格和新规格两个类型,老规格是指“2vCPU4GB”格式的规格,新规格是指“rabbitmq.2u4g.cluster”格式的规格。自新规格正式上线之日起,用户新订购实例只能订购新规格、无法新订购老规格实例,但用户已订购的老规格实例,可正常使用,也可以进行规格变更。 RabbitMQ支持ARM架构的鲲鹏实例,其规格、价格与X86架构相同。 详细的产品价格如下: 一、老规格 分布式消息服务RabbitMQ老规格仅支持包年/包月计费模式,价格如下: 实例类型 实例规格 数量 包月价格(元/月) :::: 单机版 2C4G 1 278 单机版 4C8G 1 541 单机版 8C16G 1 1068 单机版 16C32G 1 1939 集群版 4C8G 3 3158 集群版 4C8G 5 4421 集群版 4C8G 7 5684 集群版 8C16G 3 6231 集群版 8C16G 5 8723 集群版 8C16G 7 11215 集群版 16C32G 3 12926 集群版 16C32G 5 18096 集群版 16C32G 7 23267 分布式消息服务RabbitMQ老规格的存储空间价格,同云硬盘单价一致。 分布式消息服务RabbitMQ老规格包周期订购,无包年优惠。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        计费说明
        产品价格
      • 创建实例
        安全组 安全组可重复使用,您也可以根据实际情况使用不同的安全组,请根据实际需要进行配置。 创建安全组的操作指导,请参考虚拟私有云创建安全组 若需要为安全组添加规则,请参考虚拟私有云安全组添加安全组规则 弹性公网IP(可选) 若需要通过公网访问RabbitMQ实例,则需要申请弹性公网IP,否则不需要申请弹性公网IP。申请弹性公网IP的操作指导请参考购买弹性IP 其他工具 下载安装工具Eclipse3.6.0以上版本或者IntelliJ,JDK 1.8.111以上版本。 购买实例 实例介绍 RabbitMQ实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占RabbitMQ实例,可根据业务需要可定制相应规格的RabbitMQ实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 (1)登录管理控制台。 (2)进入RabbitMQ管理控制台。 (3)在管理控制台右上角单击“地域名称”,选择区域。此处请选择与您的应用服务相同的区域。 (4)点击“购买实例”跳转到购买页面。 (5)实例规格选择 以下规格选型适用于6个节点: 芜湖2、南京3、上海7、福州25、重庆2、北京5。 此6个节点可以选择普通版和高级版。 存储空间说明:目前基础版和高级版规格如下: 产品类型 产品规格 高级版本 三节点 8核16GBlvs节点 4核8GB总磁盘范围 300GB – 6000GB 基础版本 三节点 4核8Glvs节点 4核8GB总磁盘范围 300GB – 6000GB 在集群模式中,RabbitMQ需要对消息持久化写入到磁盘中,因为,您在创建RabbitMQ实例选择存储空间时,建议根据业务消息体积预估以及镜像队列副本数量选择合适的存储空间。镜像队列副本数最大为集群的节点数,目前都是3。 例如:业务消息体积预估100GB,则磁盘容量最少应为100GB3 + 预留磁盘大小100GB。 1)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 2)区域默认为当前资源池,页面左上角切换区域。 3)选择类型,用户可选高级版和基础版两个版本。其中高级版规格为8核16GB,适用于大型应用系统。基础版规格为4核8GB,适用于中、小型企业应用。 4)服务节点数出于高可用考虑,默认3个。 5)选择主机类型,包括2系列、3系列和6系列。主机类型详细内容请参见弹性云主机规格。 6)选择存储空间,包括磁盘类型和空间。 磁盘类型默认提供普通IO。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以300G起步,可以以100倍数增加磁盘空间。 7)填写实例名称,长度在 4 到 64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 8)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 9)选择已有子网,若无子网,点击创建跳转到子网页面新增。 10)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增。 11)选择购买时长,拖动选择112个月。 12)勾选自动续订。按月购买:自动续订周期为1个月;按年购买:自动续订周期为1年。 13)填写购买数量,单次最多可批量申请5个分布式消息服务。 以下规格选型适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点。 这些节点可选择通用型和计算增强型,具体情况如下: 主机类型 节点数(个) 实例规格 存储IO 存储空间GB 通用型 可选节点数:3/5/7/9 可选规格: 4核 8GB 8核 16GB 16核 32GB 可选IO规格: 普通IO(SATA) 高IO(SAS) 超高IO(SSD) 单节点10010000 计算增强型 可选节点数:3/5/7/9 可选规格: 4核 8GB 8核 16GB 16核 32GB 可选IO规格: 普通IO(SATA) 高IO(SAS) 超高IO(SSD) 单节点10010000 节点可选择3节点、5节点、7节点、9节点,实例规格可选择4C8G、8C16G、16C32G。 存储类型可选择普通IO(SATA)、高IO(SAS)、超高IO(SSD)。 1)填写实例名称,长度在 4 到 64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 2)选择引擎类型,默认选择云原生引擎,海量消息堆积能力,支持更多连接和队列数,稳定性高。也可选择rabbitmq引擎,完全支持开源RabbitMQ生态,功能完备。 3)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 4)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、13年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、13年。 计费模式为按需计费,则该选项隐藏无需选择。 5)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 6)设置节点数,可选择3/5/7/9。RabbitMQ 的节点数是指 RabbitMQ 集群中的节点数量。在 RabbitMQ 集群中,可以有多个节点组成一个集群,每个节点都是一个独立的 RabbitMQ 服务器实例。 7)下拉选择主机类型,可选择通用型和计算增强型。通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 8)选择实例规格,分布式消息服务RabbitMQ提供通用型和计算增强型各3类规格,各规格详细说明参见弹性云主机规格。 9)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/普通IO/超高IO三类。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 10)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 (6)下单购买。 选择理解并接受《产品服务协议》,然后下一步订购支付完成购买。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        创建实例
      • 连接管理
        介绍分布式消息服务RabbitMQ连接管理内容。 背景信息 RabbitMQ 连接管理的背景信息如下: 生产者连接管理:在 RabbitMQ 中,生产者负责将消息发送到队列中。在高并发的场景下,可能会有大量的生产者与 RabbitMQ 建立连接。因此,连接管理变得至关重要。在这种场景下,需要确保连接的稳定性和可用性,以确保生产者能够持续地发送消息,并避免连接的过度消耗。 消费者连接管理:消费者负责从队列中接收消息并进行处理。在高负载的情况下,可能会有大量的消费者连接到 RabbitMQ。在这种场景下,需要进行连接的管理和优化,以确保消费者能够高效地处理消息,并避免过多的连接占用资源。 连接池管理:为了更好地管理连接,可以使用连接池来对 RabbitMQ 连接进行复用和管理。连接池可以帮助控制连接的数量,避免频繁地创建和销毁连接,提高系统的性能和资源利用率。通过连接池管理,可以确保连接的可用性,并有效地管理连接的生命周期。 连接超时和重连:在网络不稳定或 RabbitMQ 实例发生故障时,连接可能会中断或超时。在这种情况下,需要实现连接的超时和重连机制,以确保连接能够及时地恢复,并保持与 RabbitMQ 的正常通信。通过合理设置连接超时和重连策略,可以提高系统的可靠性和稳定性。 总之,RabbitMQ 连接管理的场景涉及生产者连接管理、消费者连接管理、连接池管理以及连接超时和重连。通过合理的连接管理和优化,可以提高系统的性能、可用性和稳定性,确保消息的可靠传递和处理。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        连接管理
      • 自定义分布式消息服务RabbitMQ事件源
        本文介绍如何在事件总线EventBridge管理控制台添加分布式消息服务RabbitMQ类型的自定义事件源。 前提条件 事件总线EventBridge 开通事件总线EventBridge并委托授权。 创建自定义总线。 分布式消息服务RabbitMQ 开通分布式消息服务RabbitMQ。 创建实例、并创建vhost和queue。 操作步骤 1. 登录事件总线管理控制台。 2. 在左侧导航栏,单击事件总线。 3. 在事件总线页面,单击目标总线名称。 4. 在左侧导航栏,单击事件源。 5. 在事件源 页面,单击添加事件源。 6. 在添加自定义事件源 面板,输入名称 和描述 ,事件提供方 选择分布式消息RabbitMQ,选择vhost和queue等配置然后单击确认,详见图1。 图1 创建事件源时事件提供方选择分布式消息服务RabbitMQ 参数说明 参数 说明 示例 RabbitMQ 实例名称 分布式消息服务RabbitMQ实例名称。 instancexxx RabbitMQ vhost 分布式消息服务RabbitMQ vhost。 / RabbitMQ queue 分布式消息服务RabbitMQ queue。 queuexxx 事件示例 plaintext { "id": "f6676cdd7696492db4f111e8d93881fe", "specversion": "1.0", "source": "source5", "type": "amqp:Queue:SendMessage", "subject": "ctyun:rabbitmq:bb9fdb42056fxxxxxx10242ac110002:dab4124xxxxxxb2774f45c6a6db69:queue:test", "datacontenttype": "application/json", "time": "20251030T06:58:38.544695974Z", "data": { "body": "test1", "envelope": { "deliveryTag": 1, "routingKey": "test" }, "props": {} }, "ctyunaccountid": "dab4124510ddxxxxx774f45c6a6db69", "ctyunregion": "bb9fdb42056fxxxxx10242ac110002" } data字段包含的参数解释如下表所示。 参数 类型 示例值 描述 props Object 详见props字段参数解释 消息属性,详见props字段参数解释。 envelope Object 详见envelope字段参数解释 消息的envelope信息,详见envelope字段参数解释。 body Object {"key":"value"} 消息体,默认以JSON格式编码。 data 字段下envelope属性包含的参数解释如下表所示。 参数 类型 示例值 描述 deliveryTag Int 98 消息的Tag。 exchange String 无 消息的Exchange。 redeliver Boolean false 是否支持重发消息。取值说明如下: true:支持。 false:不支持。 routingKey String housekeeping 消息的路由规则。 data 字段下props属性包含的参数解释如下表所示。 参数 类型 示例值 描述 contentEncoding String utf8 消息内容编码。 messageId String f7622d51e19841dea07277c1ead7 消息ID。 contentType String application/json 消息contentType。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源类型
        自定义分布式消息服务RabbitMQ事件源
      • 使用Logstash处理数据
        配置处理任务 1. 在云搜索服务实例创建页面选择Logstash实例管理,选择已经加装的Logstash实例。 2. 选择“管道管理”,选择“新建管道”。 3. 在“管道配置”窗口中,配置相关的管道配置。 python input { kafka { autooffsetreset > "latest" bootstrapservers > "ip:port,ip:port,ip:port" consumerthreads > 88 groupid > "yourgroupid" topics > ["yourkafkatopic"] codec > json } } filter { } output { elasticsearch { hosts > ["ip:port"] index > "yourindexname%{+YYYY.MM.dd}" user > "yourusername" password > "yourpassword" } } input部分用于定义数据的来源,即Logstash从哪里获取数据。这里以Kafka为例: autooffsetreset:会决定从哪个位置开始消费消息 bootstrapservers:Kafka集群的地址 consumerthreads:控制 Kafka 消费者线程的数量 groupid:消费者组ID topics:Kafka的主题列表 codec:指定数据格式 filter部分可以进行消息处理、数据解析等操作。根据实际业务规则来处理。 output部分用于将处理后的数据推送到外部系统(如数据库、消息队列、搜索引擎等)。这里以Elasticsearch为例: hosts:指定Elasticsearch的地址。 index:指定存储到Elasticsearch的索引名称,可以使用日期变量%{+YYYY.MM.dd} 来动态生成基于日期的索引。 user/password:提供Elasticsearch用户名和密码 配置完点击“预校验”,预校验会使用Logstash的语法功能来检测基础的语法,不检测逻辑和连通性。 预校验通过后可以执行后续操作。 4. 在“参数配置”中,配置相关的参数。 参数 说明 管道名称 只能包含字母、数字、中划线或下划线,且必须以字母开头,限制430个字符,实例内唯一 管道描述 限制长度50 管道工作线程数 控制Logstash同时处理事件的线程数 管道批处理大小 单个线程从input部分收集的最大事件数 管道批处理延迟 不满足批处理大小最大等待时间 队列类型 memory模式、persisted模式 memory:内存队列 persisted:磁盘队列 队列最大字节数 persisted模式生效 队列最大存储大小 队列检查点写入数 persisted模式生效 队列检查点数量 5. 启动处理任务 配置完参数后点击“保存并部署”。就启动了读取Kafka中的数据转换后写入到Elasticsearch的管道任务。 等到管道“运行中”可以尝试配置的Kafka的topics中导入一些数据,例如使用Filebeat或其他程序。 可以通过Curl命令查看logstash中配置的索引名,在Elasticsearch实例是否有数据进来。 plaintext curl " 6. 停止任务 当任务执行结束后,可以在“管道管理”页面,点击“停止”,会执行停止管道操作。
        来自:
        帮助文档
        云搜索服务
        快速入门
        使用Logstash处理数据
      • 功能特性
        本文为您介绍分布式消息服务MQTT的产品功能。 消息模型 支持发布/订阅消息模型,提供一对多的消息分发方式。这意味着一个发布者(发布消息的客户端)可以将消息发送到一个或多个订阅者(订阅相同主题的客户端),而不需要建立直接的点对点连接。 以下是MQTT的发布/订阅消息模型的关键特点: 主题(Topic): 发布者在发送消息时会将消息与一个主题相关联。主题是消息的分类或标识,它用于告诉Broker消息应该发送到哪些订阅者。订阅者可以选择订阅感兴趣的主题,以接收与这些主题相关的消息。 订阅(Subscribe): 订阅者告诉MQTT Broker它对哪些主题感兴趣。一旦订阅者订阅了特定主题,Broker会将匹配的消息发送给订阅者。订阅者可以同时订阅多个主题。 发布(Publish): 发布者将消息发送到特定主题,然后Broker负责将消息传递给所有订阅了该主题的订阅者。这样,消息可以广播给所有订阅者,实现了一对多的消息分发。 多对多通信: MQTT支持多对多通信,这意味着多个发布者可以同时发布消息到相同或不同的主题,多个订阅者可以同时订阅一个或多个主题。这种灵活性使MQTT适用于各种应用场景,包括物联网、实时通信和分布式系统。 通配符支持: MQTT还支持通配符订阅,订阅者可以使用通配符来匹配多个主题,从而接收与通配符模式匹配的消息。这提供了更高级别的消息过滤和选择性订阅。 总之,MQTT的发布/订阅消息模型使其成为一种非常灵活的消息传递协议,特别适用于需要一对多消息分发的应用,如物联网、实时监控、传感器数据采集等。它的轻量级特性和广泛的跨平台支持也使其成为了许多分布式系统和应用程序的首选通信协议之一。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        功能特性
      • 信道管理
        介绍分布式消息服务RabbitMQ信道管理操作内容。 场景描述 RabbitMQ 信道管理的场景描述如下: 并发处理:在高并发的场景下,有大量的消息需要发送或接收。为了提高性能和效率,可以使用多个信道来同时处理消息。通过合理地管理信道,可以实现消息的并发处理,提高系统的吞吐量和响应速度。 事务管理:在某些情况下,需要确保消息的原子性操作,即要么全部成功,要么全部失败。通过使用信道的事务机制,可以将多个操作封装在一个事务中,以确保消息的一致性和可靠性。在需要严格的数据一致性的场景下,信道的事务管理非常重要。 消息确认机制:在消息的发送和接收过程中,可能会出现网络故障或其他错误导致消息丢失或处理失败。为了确保消息的可靠性,可以使用信道的消息确认机制。通过确认机制,消息的发送者可以收到关于消息是否已经被成功处理的确认信息,从而可以进行相应的处理。 限流控制:在消息的发送和接收过程中,可能会出现瞬时的高负载情况,导致系统资源的过度消耗。为了避免这种情况,可以使用信道的限流控制机制。通过限制每个信道的消息数量或速率,可以控制系统的负载,保护系统的稳定性和可用性。 总之,RabbitMQ 信道管理的场景涉及并发处理、事务管理、消息确认机制和限流控制。通过合理地管理和优化信道,可以提高系统的性能、可靠性和稳定性,确保消息的可靠传递和处理。 信道列表 (1)登录管理控制台。 (2)进入RabbitMQ管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“信道管理”进入信道列表。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        信道管理
      • 新资费
        说明 分布式消息RabbitMQ新资费产品支持RabbitMQ3.8版本引擎,提供集群和单机两种规格实例,支持X86和ARM计算CPU架构类型的计算增强型主机,可选3、5、7、9代理数量。 新资费目前在 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 资源池开放订购。 上述资源池实例新购和续订可享受1年83折,2年7折,3年5折优惠。 价格计算公式 分布式消息服务RabbitMQ费用由实例费用和存储费用两部分组成,两者单价如下表所示,计费公式为: 实例费用实例规格单价 代理数量,单机版总节点数量为1。 存储费用存储类型单价 代理数量 单节点存储空间GB大小,单机版代理数量为1。 实例规格单价 Intel计算增强型 规格名称 实例单价(单个节点) 规格名称 按需标准价格(元/小时) 包月标准价格(元/月) RabbitMQ.2u4g.cluster 0.98 441 RabbitMQ.4u8g.cluster 2.24 1008 RabbitMQ.8u16g.cluster 4.86 2187 RabbitMQ.12u24g.cluster 7.38 3321 RabbitMQ.16u32g.cluster 9 4050 RabbitMQ.24u48g.cluster 15.12 6804 RabbitMQ.32u64g.cluster 20.16 9072 RabbitMQ.48u96g.cluster 30.24 13608 RabbitMQ.64u128g.cluster 40.32 18144
        来自:
      • 探针监控
        本文主要介绍探针监控 本章节介绍APM采集的探针监控指标的类别、名称、含义等信息。 表探针监控指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 探针数据(detail,探针数据指标集。) type 数据类型 探针上报的数据类型 ENUM LAST 探针数据(detail,探针数据指标集。) discardBytes 丢弃字节数 该数据类型的丢弃字节数 Byte INT SUM 探针数据(detail,探针数据指标集。) discardCount 丢弃次数 该数据类型的丢弃次数 INT SUM 探针数据(detail,探针数据指标集。) errorBytes 发送失败字节数 该数据类型的发送失败字节数 Byte INT SUM 探针数据(detail,探针数据指标集。) errorCount 发送失败次数 该数据类型的发送失败次数 INT SUM 探针数据(detail,探针数据指标集。) maxBytes 最大字节数 该数据类型的最大发送字节数 Byte INT MAX 探针数据(detail,探针数据指标集。) maxQueueSize 队列最大长度 该数据类型发送队列最大长度 INT MAX 探针数据(detail,探针数据指标集。) sendBytes 发送成功字节数 该数据类型发送成功字节数 Byte INT SUM 探针数据(detail,探针数据指标集。) sendCount 发送成功次数 该数据类型发送成功次数 INT SUM 探针数据(detail,探针数据指标集。) sendTotalTime 总发送时间 该数据类型的总发送时间 ms INT SUM 探针数据(detail,探针数据指标集。) slowTime 最慢发送时间 该数据类型最慢发送时间 ms INT MAX 异常(exception,异常指标集。) causeType 异常类 异常发生类 ENUM LAST 异常(exception,异常指标集。) type 类型 异常类型 ENUM LAST 异常(exception,异常指标集。) count 次数 异常次数 INT SUM 异常(exception,异常指标集。) message 消息 异常消息 STRING LAST 异常(exception,异常指标集。) stackTrace 堆栈 异常堆栈 CLOB LAST 服务端连接监控(transfer,服务端连接监控指标集。) host 主机 主机信息 ENUM LAST 服务端连接监控(transfer,服务端连接监控指标集。) connectIp 连接ip 连接ip STRING LAST 服务端连接监控(transfer,服务端连接监控指标集。) ipList ip列表 所有ip列表 STRING LAST 服务端连接监控(transfer,服务端连接监控指标集。) isConnected 是否连接 是否连接 INT LAST 服务端连接监控(transfer,服务端连接监控指标集。) rt 响应时间 响应时间 INT AVG 队列监控(repository,队列监控指标集。) monitorQueueSize 监控数据队列大小 监控数据队列大小 INT SUM 队列监控(repository,队列监控指标集。) monitorObjectSize 监控数据内存大小 监控数据内存大小 INT SUM 队列监控(repository,队列监控指标集。) traceQueueSize 调用链数据队列大小 调用链数据队列大小 INT SUM 队列监控(repository,队列监控指标集。) traceObjectSize 调用链数据内存大小 调用链数据内存大小 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        探针监控
      • 名词解释
        本节主要介绍分布式消息服务Kafka常用术语解释。 代理(Broker) kafka集群包含一个或多个消息处理服务器,该服务器成为Broker,提供数据刷盘等核心功能。可以横向扩展、在线扩容以提高集群性能。 主题(Topic) 每条发布到Kafka 集群的消息都有一个主题,这个主题被称为 Topic。通过 Topic 可以对消息进行分类。每个 Topic 可以由一个或多个分区(Partition)组成,存储于一个或多个Broker 上。 分区(partition) 消息分区是物理上的概念,一个Topic可以分为多个partition,每个partition是一个有序的队列。partition中的每条消息都会被分配一个有序的id(offset)。 生产者(Producer) 消息和数据生成者,一般为应用调用API进行消息生产,并向Kafka的一个Topic发布消息。 消费者(Consumer) 消息订阅者,也成为消息消费者,负责向 Kafka Broker 读取消息并进行消费。 消费组(Consumer Group) 一类Consumer的集合名称,这类Consumer通常消费一类消息,且消费逻辑一致,Consumer Group 和 Topic 的关系是 N:N,同一个 Consumer Group 可以订阅多个 Topic,同一个 Topic 也可以被多个 Consumer Group 订阅。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        名词解释
      • 约束与限制
        号“ ”,会导致监控数据无法展示。 是否支持延迟队列 不支持 消费组 表消费组约束与限制 限制项 约束与限制 是否需要创建消费组、消费者、生产者 不需要单独创建消费组、生产者和消费者,在使用时自动生成,实例创建后,直接使用即可。 重置消费进度 重置消费进度可能会导致重复消费。 消费组名称 消费组名称开头包含特殊字符,例如下划线“”、 号“ ”,会导致监控数据无法展示。 消息 表 消息约束与限制 限制项 约束与限制 消息大小 生产消息的最大长度为10M,超过10M会导致生产失败。 用户 表用户约束与限制 限制项 约束与限制 创建用户的数量 一个Kafka实例最多创建20个SASLSSL用户。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        约束与限制
      • 全局字典相关函数
        ctyun.dict.DICT.lpush 函数信息详见下表: 项目 描述 语法 length, err DICT:lpush(keyname, value) 作用 消息队列操作:将string或number从头部插入key的列表中,并返回列表元素的个数。若key不存在则先创建key,存在但不是列表返回nil且err为“value not a list”。 入参 keyname:设置内容的键。 value:设置内容的值。 返回值 length:返回列表元素的个数。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local length, err cats:lpush("Marry", 1) ctyun.dict.DICT.rpush 函数信息详见下表: 项目 描述 语法 length, err DICT:rpush(keyname, value) 作用 消息队列操作:与lpush类似,只是元素会从尾部插入。 入参 keyname:设置内容的键。 value:设置内容的值。 返回值 length:返回列表元素的个数。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local length, err cats:rpush("Marry", 1) ctyun.dict.DICT.lpop 函数信息详见下表: 项目 描述 语法 value, err DICT:lpop(keyname) 作用 消息队列操作:移除并返回key列表的第一个值;若key不存在则返回nil,key存在但不是列表则返回nil且err为“value not a list”。 入参 keyname:设置内容的键。 返回值 value:设置内容的值。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local value, err cats:lpop("Marry")
        来自:
        帮助文档
        CDN加速
        用户指南
        UDFScript用户自定义脚本
        UDFScript函数说明
        全局字典相关函数
      • 全局字典相关函数
        ctyun.dict.DICT.lpush 函数信息详见下表: 项目 描述 语法 length, err DICT:lpush(keyname, value) 作用 消息队列操作:将string或number从头部插入key的列表中,并返回列表元素的个数。若key不存在则先创建key,存在但不是列表返回nil且err为“value not a list”。 入参 keyname:设置内容的键。 value:设置内容的值。 返回值 length:返回列表元素的个数。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local length, err cats:lpush("Marry", 1) ctyun.dict.DICT.rpush 函数信息详见下表: 项目 描述 语法 length, err DICT:rpush(keyname, value) 作用 消息队列操作:与lpush类似,只是元素会从尾部插入。 入参 keyname:设置内容的键。 value:设置内容的值。 返回值 length:返回列表元素的个数。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local length, err cats:rpush("Marry", 1) ctyun.dict.DICT.lpop 函数信息详见下表: 项目 描述 语法 value, err DICT:lpop(keyname) 作用 消息队列操作:移除并返回key列表的第一个值;若key不存在则返回nil,key存在但不是列表则返回nil且err为“value not a list”。 入参 keyname:设置内容的键。 返回值 value:设置内容的值。 err:将错误信息存放在err中。 示例: applescript 假设全局字典名称为cats local cats ctyun.dict.cats local value, err cats:lpop("Marry")
        来自:
        帮助文档
        全站加速
        用户指南
        UDFScript用户自定义脚本
        UDFScript函数说明
        全局字典相关函数
      • 使用限制
        本文为您介绍分布式消息服务MQTT各功能项使用限制。 功能信息项 限制值 说明 实例名称 长度4~40个字符,大小写字母开头,只能包含大小写字母、数字及分隔符() 实例名称不可重复。 Topic 长度 64 个字符 Topic 长度不得超过该限制,否则会导致无法发送或者订阅。 Topic 和 Client ID 可用字符 仅限数字 09,字母 az 或 AZ,和符号“”、“” Client ID 和MQTT 的 Topic 不允许使用“/”、“:”、“,”、“%”等其他非常规字符,否则可能导致无法连接和收发消息。 Client ID 长度 64 个字符 使用微消息队列 MQTT 收发消息时,Client ID 长度不得超过该限制,否则会导致连接被断开。 消息大小 64 KB 字节 消息负载不得超过该限制,否则消息会被丢弃。 单个设备订阅Topic 数量 30 个 每个客户端最多允许同时订阅 30 个 Topic,超过该限制会导致无法新增新的订阅关系。 每个持久化会话离线消息存储数量 1,000,条 服务端会限制每个持久化会话的离线消息数量。超过该限制后,服务端会从最早的消息开始清理。因此,请合理使用持久化订阅模式,以免产生很多无用的离线消息。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        使用限制
      • 开启实例插件
        本章节主要介绍如何开启分布式消息服务RabbitMQ实例插件。 RabbitMQ实例创建后,支持开启如下插件,实例创建后默认都是关闭状态。 RabbitMQ插件功能可用于测试和迁移业务等场景,不建议用于生产业务。详情请参考约束与限制。 表1 支持修改状态的实例插件 插件名称 功能描述 端口号 rabbitmqamqp10 表示实例是否支持AMQP1.0协议。 rabbitmqdelayedmessageexchange 表示实例是否开启消息延迟功能。插件延迟时间存在1%左右的误差,可能提前或者推迟发送消息给消费者。 rabbitmqfederation 表示实例是否开启消息同步功能。 rabbitmqsharding 表示实例是否开启消息分片功能。 rabbitmqshovel 表示实例是否开启消息迁移功能。 rabbitmqtracing 表示实例是否开启消息追踪功能。 rabbitmqmqtt 表示实例是否支持MQTT协议(TCP方式)。 1883 rabbitmqwebmqtt 表示实例是否支持MQTT协议(WebSocket方式)。 15675 rabbitmqstomp 表示实例是否支持STOMP协议(TCP方式)。 61613 rabbitmqwebstomp 表示实例是否支持STOMP协议(WebSocket方式)。 15674 rabbitmqconsistenthashexchange 表示实例是否支持xconsistenthash。 说明 插件端口号不支持修改。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        插件管理
        开启实例插件
      • 使用限制
        本文主要介绍应用性能监控的各语言使用限制。 自研JAVA探针使用限制 类型 名称 版本 工具 JDK jdk8、jdk11、jdk17 通讯协议 httpclient apache httpclient2.0+、apache asynchttpclient1.9+ Java框架 spring 3.1.x~5.0.x Java框架 springboot 1.2.x~1.5.x、2.0.4~2.0.9 Java框架 Dubbo 2.7+ Java框架 gRPC 1.6+ 数据库 MySQL mysqlconnectorjava 5.1.X 数据库 Oracle ojdbc5、ojdbc6、ojdbc14 数据库 druid 1.0 数据库 c3p0 0.9.2+ 数据库 dbcp2 2.0+ 数据库 JDBC java8+ web服务器 Tomcat 7.0.x, 8.5.x, 9.0.x, 10.0.x 消息队列 RabbitMQ springrabbit1.0+、amqpclient 2.7+ 消息队列 Kafka kafkaproducer 0.11+、kakfaconsumer 0.11+、kafkastream 0.11+ NoSQL Redis jedis 1.4+,lettuce 4.0+ NoSQL Mongodb 3.1+ NoSQL ElasticSearch 5.0+ Rest Client Common HTTP java http client java11+、HttpURLConnection java8+ Go使用限制 Opentelemetry支持的框架列表 OpenTelemetry提供了若干半自动埋点插件,支持为常见的框架自动创建Span。
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        使用限制
      • 变更配置
        介绍分布式消息服务RabbitMQ变更配置内容。 当需要处理大量消息时,RabbitMQ实例的扩容是一种常见的解决方案。扩容可以增加RabbitMQ集群的吞吐量、存储能力和高可用性。分布式消息服务RabbitMQ提供三类扩容方案,分别为节点、规格和磁盘扩容,更好满足用户不同场景下的扩容需求。 节点扩容:指向RabbitMQ集群中添加更多的节点以增加系统的吞吐量和可靠性。通过扩容,可以将消息的发送和消费负载分摊到更多的节点上,从而提高系统的并发处理能力。 规格扩容:指通过增加RabbitMQ的资源配置来提升系统的处理能力和性能。 磁盘扩容:指增加磁盘的存储容量,以满足更多消息的存储需求。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        计费说明
        变更配置
      • 删除Topic
        场景描述 在RocketMQ中,删除Topic是一个比较重要且敏感的操作,需要谨慎处理。一般来说,删除Topic的场景有以下几种情况: 业务不再需要该Topic:当某个Topic对应的业务已经结束或不再需要时,可以考虑删除该Topic,以释放资源和减少管理工作。 Topic配置错误或不合适:如果创建Topic时配置错误或者配置不合适,可以考虑删除该Topic,并重新创建一个正确的Topic。 数据归档或清理:在某些情况下,可能需要对Topic中的数据进行归档或清理,以释放存储空间。在归档或清理之前,需要先将Topic中的消息备份或迁移到其他地方,确保数据的完整性和可恢复性。 无论是哪种场景,删除Topic都需要注意以下几点: 确保Topic中的消息已经被正确处理和消费:在删除Topic之前,需要确保Topic中的消息已经被正确地处理和消费,以避免数据丢失或处理中断。 停止生产者和消费者对该Topic的操作:在删除Topic之前,需要停止生产者和消费者对该Topic的操作,以避免数据冲突或丢失。 确保删除操作的权限和安全性:删除Topic通常需要管理员或具有相应权限的用户来执行,确保只有授权人员可以进行删除操作。 慎重操作,备份重要数据:在删除Topic之前,建议备份Topic中的重要数据,以防止误操作或数据丢失。 总之,删除Topic是一个敏感操作,需要在慎重考虑和评估后进行,以确保不会对业务和数据产生不可逆的影响。 操作步骤 1、进入Topic管理菜单。 2、在Topic管理菜单选择将要删除的主题,在更多下拉框选择删除,即可完成删除 注意事项: ● 删除主题前必须确保该主题对应的生产消费实例已经全部停止。 ● 删除主题后消息数据会发生丢失。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        删除Topic
      • Kafka业务迁移
        介绍分布式消息服务Kafka业务迁移内容。 应用场景 Kafka的业务迁移可以应用在多个领域和场景中,包括但不限于以下几个方面: 数据集成和数据仓库:Kafka可以用作数据集成的中间件,将分散的数据源集中到一个统一的平台上。通过使用Kafka的生产者和消费者,可以实现数据的可靠传输和消费,支持实时的数据集成和数据仓库的建设。 实时数据处理和流处理:Kafka提供了流处理功能,可以对实时数据流进行处理和分析。通过使用Kafka Streams、Apache Flink等流处理框架,可以对数据流进行实时的计算、转换、聚合等操作,实现实时数据处理和实时决策。 异步通信和消息队列:Kafka作为消息队列,可以用于异步通信和解耦系统之间的依赖关系。通过将同步的请求和响应转换为异步的消息,可以提高系统的可伸缩性和响应性能,实现松耦合的系统架构。 日志收集和分析:Kafka可以用作日志收集和分析的中间件,用于接收和传递系统和应用程序的日志数据。通过将日志数据发送到Kafka中,可以实现日志的集中存储和分发。同时,可以使用Kafka的消费者来实时消费和分析日志数据,帮助进行故障排查、性能监控和安全审计等工作。 数据同步和复制:在多个数据中心或分布式系统之间进行数据同步和复制时,可以使用Kafka作为数据的中间传输通道。通过使用Kafka的生产者和消费者,可以实现数据的可靠传输和复制,保证数据的一致性和可用性。 这些只是Kafka业务迁移的一部分应用场景,实际应用中还有很多其他的需求和场景。Kafka的高性能、可靠性和可扩展性使其成为业务迁移的理想选择。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka业务迁移
      • 消息收发
        本文为您分布式消息服务MQTT消息收发内容。 会话机制 终端 clean sessiontrue,断线后会话信息清除,再次上线后之前所有的订阅关系以及离线消息丢失。 clean sessionfalse断开连接的情况下,MQTT Broker也会为断连客户端保存一个会话,默认2小时,超期未重连订购关系清除;对于clean sessionfalse的客户端断线重连后可接收Qos>0的离线消息。对于客户端因网络等各种原因断线,需要加上重连和订购关系重新订购机制。 离线消息 对于clean sessionfalse的客户端,在未超出会话失效期,断线重连后可接收Qos>0的离线消息。 系统主题 系统主题 说明 mq2mqtt 用于云端服务向终端发送消息。发往该主题消息会转发至MQTT Broker实现云端与移动端互通 mqttdeviceconnect 设备上线主题,内容 {"clientid":客户端ID,"ts":上线时间戳 } mqttdevicedisconnect 设备下线主题,内容 {"clientid":客户端ID,"ts":下线时间戳 } SDK支持 分布式消息服务MQTT支持标准的MQTT协议,理论上适配所有的MQTT客户端SDK。 推荐对应的第三方 SDK 如下表: 语言/平台 推荐的第三方SDK Java Eclipse Paho SDK iOS MQTTClientFramework Android Eclipse Paho SDK JavaScript Eclipse Paho JavaScript Python Eclipse Paho Python SDK C Eclipse Paho C SDK C Eclipse Paho C SDK Golang Eclipse Paho Golang SDK Node.js MQTTJS PHP MosquittoPHP
        来自:
        帮助文档
        分布式消息服务MQTT
        快速入门
        消息收发
      • 分布式消息服务MQTT事件源
        本文介绍如何在事件总线EventBridge控制台添加分布式消息服务MQTT作为事件流中的事件提供方。 前提条件 事件总线EventBridge 开通事件总线EventBridge并委托授权。 分布式消息服务MQTT 开通分布式消息服务MQTT。 操作步骤 1. 登录事件总线控制台。 2. 在左侧导航栏,单击事件流。 3. 在事件流页面,单击创建事件流。 4. 在事件源(Source) 配置面板,事件提供方 选择分布式消息MQTT,选择或填入主题等配置然后单击确认,如图1所示。 图1 创建事件流时分布式消息服务MQTT作为流的事件提供方 参数说明 参数 说明 示例 MQTT实例 选择MQTT实例。 instancexxx MQTT主题 选择或输入MQTT的主题。 topicxxx 事件示例 plaintext { "id":"b5771f766cdf48edb1bad15418c", "source":"ctyun:mqtt", "specversion":"1.0", "type":"mqtt:Topic:SendMessage", "subject":"ctyun:mqtt:bb9fdb421610242ac110002:16789:topic/topictest", "time":"20240305T13:52:18.374Z", "datacontenttype":"application/json", "data":{ "body":{ "key": "value" }, "props": { "topic": "topictest" } }, "ctyunaccountid":"16789", "ctyunregion":"bb9fdb421610242ac110002", } data 字段包含的参数解释如下表所示。 参数 类型 示例值 描述 props Object {"topic":"topictest"} 消息属性。 body Object {"key":"value"} 消息体,默认以JSON格式编码。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件源
        分布式消息服务MQTT事件源
      • 与其他服务的关系
        专属云(计算独享型) 该服务为专属云Kafka开通前必选服务,在开通了专属云计算独享后,才能在控制台中节点选择此专属云标识的环境,再进入控制台的分布式消息服务,来操作专属云Kafka的开通。 专属云(存储独享型) 该服务为专属云Kafka开通时的可选服务,在进如专属云Kafka的开通过程中,队列实例规格必须在专属云计算独享型,而队列存储的部分支持选择公有云的云盘承载,也可选择已经购买的专属云存储独享型,可根据需求灵活选择。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        产品简介
        与其他服务的关系
      • 查看Topic
        介绍分布式消息服务Kafka主题列表功能操作内容。 场景描述 Kafka主题列表是Kafka消息队列中的一个重要概念,用于列出所有可用的主题。以下是一些Kafka主题列表的应用场景的描述: 监控和管理:通过查看Kafka主题列表,管理员可以了解当前系统中存在的所有主题。他们可以监控主题的状态、分区数量和副本分布,并进行必要的管理操作,如创建、删除和修改主题。 数据消费者选择:Kafka主题列表可以帮助数据消费者选择他们感兴趣的主题。消费者可以浏览主题列表,找到包含他们需要的数据的主题,并订阅这些主题以接收数据。 数据集成和数据流转:Kafka主题列表可以帮助数据集成和数据流转的过程。数据源可以查看主题列表,确定将数据写入哪些主题。而数据接收方可以查看主题列表,选择他们需要的主题来消费数据。 监控数据流:通过查看Kafka主题列表,监控系统可以了解当前系统中的所有数据流。监控系统可以根据主题列表中的信息,监控每个主题的数据流量、延迟和健康状况,并进行实时的监控和报警。 系统调试和故障排查:Kafka主题列表可以帮助开发人员进行系统调试和故障排查。他们可以查看主题列表,确定消息是否正确地写入和消费,并检查主题的状态和分区情况,以解决潜在的问题。 总之,Kafka主题列表提供了对Kafka消息队列中所有主题的全局视图,帮助管理员、数据消费者和开发人员进行监控、管理和调试。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后即可查看所有Topic的信息。 (5)右上角输入Topic名称,可查询对应Topic。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看Topic
      • 认证授权
        本文为您介绍分布式消息服务MQTT的操作指南认证授权。 创建用户名和密码 终端设备连接MQTT队列需要先创建用户密码。 1、 天翼云官网点击控制中心,选择产品分布式消息服务MQTT。 2、 登录分布式消息服务MQTT控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入认证授权菜单,点击【新增】按钮,在弹出框输入认证用户名、用户密码、确认密码等信息。 主题授权 对用户名进行主题授权,客户端方可正常收发。 1、 选择需要授权的用户,点击【授权】按钮。 2、 在弹出框填写已创建的主题名称,主题权限包含3种:pub、sub、pubsub,支持通配符,代表所有主题。
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        认证授权
      • 某交投能源充电桩项目
        本节介绍了云容器引擎的最佳实践:某交投能源充电桩项目。 项目背景 “十四五”以来,某市国资委按照市委市政府决策部署,主动抓抢国家碳达峰、碳中和战略发展机遇,积极谋划布局新能源产业,大力推进“交投能源”充电桩项目建设,提升企业核心竞争力,推动国有企业高质量发展。 该市交投集团抓抢发展机遇,迅速推动全市充电桩一张网建设,拟通过微信小程序入口向市民提供充电服务。该市交投集团通过招标选定某数字能源股份有限公司作为充电方案供应商,并选择天翼云作为该服务平台的云资源服务提供商。 解决方案 容器引擎部署应用服务:采用天翼云容器引擎部署平台应用服务,结合消息队列、分布式缓存等服务和数据库系统组成整体系统。 数据库服务部署核心业务:采用TeleDB for MySQL主备版存储核心业务数据,采用文档数据库存储日志等相关信息。云通信提供短信验证、短信通知等服务。 客户痛点 因客户上线需求紧急,平台软件厂商前期将业务临时部署在友商云上。部署在天翼云上的业务经测试后,需要将业务割接至天翼云。为保障割接万无一致,使用天翼云DTS进行实时同步,保障了割接顺利进行。 该省市公司与云公司组建专业支撑团队,割接时现场支撑保障业务顺利割接。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        客户案例
        某交投能源充电桩项目
      • Kafka相关概念
        本文主要介绍 Kafka相关概念。 云服务平台使用Kafka作为消息引擎,以下概念基于Kafka进行描述。 Topic 消息主题。消息的生产与消费,围绕消息主题进行生产、消费以及其他消息管理操作。 Topic也是消息队列的一种发布与订阅消息模型。生产者向消息主题发布消息,多个消费者订阅该消息主题的消息,生产者与消费者彼此并无直接关系。 生产者(Producer) 向Topic(消息主题)发布消息的一方。发布消息的最终目的在于将消息内容传递给其他系统/模块,使对方按照约定处理该消息。 消费者(Consumer) 从Topic(消息主题)订阅消息的一方。订阅消息最终目的在于处理消息内容,如日志集成场景中,监控告警平台(消费者)从主题订阅日志消息,识别出告警日志并发送告警消息/邮件。 代理(Broker) 即Kafka集群架构设计中的单个Kafka进程,一个Kafka进程对应一台服务器,因此手册中描述的代理,还包括对应的存储、带宽等服务器资源。 分区(Partition) 为了实现水平扩展与高可用,Kafka将Topic划分为多个分区,消息被分布式存储在分区中。 副本(Replica) 消息的备份存储。为了确保消息可靠,Kafka创建Topic时,每个分区会分别从代理中选择1个或多个,对消息进行冗余存储。 Topic的所有消息分布式存储在各个分区上,分区在每个副本存储一份全量数据,副本之间的消息数据保持同步,任何一个副本不可用,数据都不会丢失。 每个分区都随机挑选一个副本作为Leader,该分区所有消息的生产与消费都在Leader副本上完成,消息从Leader副本复制到其他副本(Follower)。 Kafka的主题和分区属于逻辑概念,副本与代理属于物理概念。下图通过消息的生产与消费流向,解释了Kafka的分区、代理与主题间的关系。 图 Kafka消息流
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        Kafka相关概念
      • 1
      • ...
      • 8
      • 9
      • 10
      • 11
      • 12
      • ...
      • 237
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      模型推理服务

      应用托管

      一站式智算服务平台

      推荐文档

      如何创建RDS数据库

      管理只读实例

      消息者消费者

      环境准备

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号