云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务RabbitMQ_相关内容
      • Kafka Broker分区Leader不可用
        本章节介绍Kafka Broker分区Leader不可用故障演练。 背景介绍 分布式消息服务 Kafka 集群中,分区 Leader 节点宕机、网络分区或资源过载等因素均可能造成分区 Leader 不可用,进而引发对应分区服务中断、客户端请求失败、Leader 重选举导致延迟升高及副本同步紊乱等问题,本演练可帮助验证集群高可用选举机制的有效性、监控告警的及时性,以及业务系统应对此类故障的容错能力与恢复效率。 基本原理 指定一个或多个分区Leader,通过调用Kafka模拟Leader故障OpenAPI,触发Leader重新选举。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式消息服务Kafka,然后单击添加资源。 3. 在弹出的对话框中,勾选目标分布式消息服务Kafka实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式消息服务Kafka。 添加实例 :单击添加实例 ,勾选上一步中添加的分布式消息服务Kafka实例。 添加故障动作 :单击立即添加 ,在列表中选择分区Leader不可用动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 主题分区:指定需要模拟分区Leader不可用的目标对象。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        中间件
        分布式消息服务Kafka
        Kafka Broker分区Leader不可用
      • 查看实例
        参数 说明 实例名称 RocketMQ实例名称是指在RocketMQ中创建的一个特定实例的名称。它可以用来唯一标识和区分不同的RocketMQ实例。根据RocketMQ的设计,实例名称通常由字母、数字和下划线组成,并且长度通常不超过255个字符。实例名称应该具有描述性,以便在多个RocketMQ实例存在时进行区分和管理。 实例ID RocketMQ实例ID是指在RocketMQ中创建的一个实例的唯一标识符。它是由系统自动生成的,用于区分不同的RocketMQ实例。实例ID可以用来管理和操作RocketMQ实例,例如创建、删除和修改实例等。实例ID通常由一串数字和字母组成,并且在RocketMQ集群中必须保持唯一性。 引擎类型 提供RocketMQ和CTGMQ两类引擎。 磁盘大小 购买实例选择的磁盘大小,通常为100G的整数倍。 磁盘类型 购买实例选择的磁盘类型,默认为SAS,也可选择更高的IO磁盘。 主机规格 购买实例选择的主机规格,主要展示CPU核数和内存大小,更多主机规格请参见产品规格。 broker节点数 RocketMQ的broker节点数是指在一个RocketMQ集群中扮演broker角色的节点数量。每个broker节点负责存储消息、处理消息的传输和消费者的请求等功能。 实例描述 用户根据需要可填写实例备注。 运行状态 实例当前运行状态,各状态描述见上文表格实例状态说明。 付费类型 创建实例时选择的付费类型,有包周期/按需两个选项。 创建时间 实例创建时间。 到期时间 包周期的实例到期时间,按需付费类型不展示。 专用网络 创建实例时绑定的VPC名称,详见订购前准备。 子网 创建实例时绑定的子网名称,详见订购前准备。 安全组 创建实例时绑定的安全组名称,详见订购前准备。 客户端协议 RocketMQ客户端协议是指在使用RocketMQ消息队列的应用程序与RocketMQ服务端之间进行通信和交互的协议规范。 网络 VPC专用网络。 接入点 接入点具体VPC内网IP。 TPS监控 标识该集群所有broker下,所有topic的生产、消费tps(2min)的时间变化曲线 流量监控 标识该集群下,所有topic的消费堆积情况,列表按倒叙排列了堆积量最大的前20个topic的堆积情况。 全局堆积 全局堆积是指消息在整个消息队列系统中的积压情况。 全局消息 标识该集群,所有topic的生产情况,按现有消息量倒叙排列。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        查看实例
      • 实例诊断
        本章节介绍了如何使用实例诊断功能快速定位问题。 操作场景 使用分布式消息服务RocketMQ消费消息时,如果遇到消息消费缓慢或者消费不到消息等消费异常的场景,借助实例诊断功能可以帮助您快速定位问题。 前提条件 已创建消费组,且消费组中已存在消费者。 已创建Topic。 实例诊断 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,选择“实例诊断”,进入实例诊断页面。 4. 选择待诊断的消费组名称,单击“开始诊断”。 诊断完成后,在“诊断记录”区域,新增一条诊断记录。 5. 单击“查看报告”,进入“实例诊断”页面,查看诊断结果。 图1 诊断结果 说明: 消费组中没有消费者时,会导致诊断失败。 消费组不在线时,可以诊断成功,但是会显示1项异常。 删除诊断记录 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,选择“实例诊断”,进入实例诊断页面。 4. 选择以下任意一种方法删除诊断记录。 在待删除的诊断记录所在行,单击“删除”。 如需批量删除诊断记录,勾选待删除的诊断记录,单击“批量删除”。 5. 弹出确认删除对话框,单击“是”,完成诊断记录的删除。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例诊断
      • Kafka Broker节点CPU高负载故障演练实战
        案例背景 某电商平台订单处理系统采用分布式微服务架构,其概要结构图如下,核心流程通过分布式消息服务Kafka集群实现异步解耦: 订单创建:用户在前端提交订单,请求经过负载均衡器转发至订单服务集群。订单服务处理业务逻辑,生成包含订单详情的消息数据,并将该消息可靠地发送至Kafka集群的特定Topic。 下游处理:库存服务(负责扣减库存)、支付服务(负责发起支付请求)和物流服务(负责生成物流配送单)是主要的下游消费者。它们各自订阅Kafka集群中的相应Topic,并行地拉取并处理消息。 Kafka集群作为异步通信的核心,其稳定性和性能对整个订单系统的可用性至关重要。在高并发的场景下,Kafka Broker可能会面临各种异常情况,其中CPU负载过高是常见的一种,可能由突发流量洪峰、JVM垃圾回收或底层基础设施瓶颈等原因引起。Kafka Broker的CPU高负载会直接影响消息的处理速度,导致生产和消费的延迟,甚至引发整个系统的不稳定。 故障演练服务提供了分布式消息服务KafkaBroker节点CPU高负载演练动作,通过模拟这种真实的故障场景,我们可以量化分析Kafka集群在Broker节点CPU受限时的表现,验证订单处理系统及其下游服务对Kafka异常的容忍度和应对能力,并提升团队在真实故障发生时的异常响应与恢复能力。
        来自:
        帮助文档
        应用高可用
        最佳实践
        故障演练服务
        Kafka Broker节点CPU高负载故障演练实战
      • RocketMQ性能白皮书
        测试场景 本章节主要测试RocketMQ不同产品规格在发送1KB大小的消息,实例的网络入流量、网络出流量、消息生产速率、消息消费速率、CPU核均负载和内存使用率。 测试环境 购买实例 名称 规格 存储空间 rocketmq01 c7.xlarge.2 4C8G 超高I/O 500GB rocketmq02 c7.2xlarge.2 8C16G 超高I/O 500GB rocketmq03 c7.4xlarge.2 16C32G 超高I/O 500GB 控制台创建主题 名称 权限 关联代理 队列个数 topic01 发布+订阅 broker1 8 控制台创建消费组 名称 关联代理 最大重试次数 是否允许以广播模式消费 group01 broker1 16 否 测试工具准备 购买1台ECS服务器(区域、可用区、虚拟私有云、子网、安全组与RocketMQ实例保持一致,Linux系统),安装jdk,并配置环境变量 tar zxvf jdk8u131linuxx64.tar.gz vi /etc/profile 追加以下内容 export JAVAHOME/root/jdk1.8.0131 export PATH$JAVAHOME/bin:$PATH 生效配置 source /etc/profile 下载测试工具 wget 解压测试工具 unzip rocketmqall5.1.4binrelease.zip 测试命令
        来自:
        帮助文档
        分布式消息服务RocketMQ
        性能白皮书
        RocketMQ性能白皮书
      • 计费类
        本文为您介绍分布式消息服务MQTT的计费类常见问题。 如何为购买的消息队列MQTT实例续费? 为防止资源到期或者浪费,已经购买包月实例的用户,可执行续费操作,延长MQTT实例的有效期,也可以设置到期自动续费的相关操作。 开通的MQTT实例资源何时生效? 天翼云分布式消息服务MQTT资源在客户支付成功之后,系统经过初始化完成后即可生效使用。
        来自:
        帮助文档
        分布式消息服务MQTT
        常见问题
        计费类
      • RabbitMqConsumer
        介绍APM监控详情里消息监控中的RabbitMqConsumer相关指标的名称、含义等信息。 RabbitMqConsumer监控指标说明表 指标类别 指标 指标说明 数据类型 异常 exceptionstacktrace 异常产生的堆栈信息 String 异常 exceptiontype 异常类型 String 异常 exceptioncount 错误数 Int 推模式消费维度监控 messageerrorcount 消费消息的错误次数 Int 推模式消费维度监控 ms0To10Count 010ms次数 Int 推模式消费维度监控 ms10To100Count 10100ms次数 Int 推模式消费维度监控 ms100To500Count 100500ms次数 Int 推模式消费维度监控 ms500To1000Count 5001000ms次数 Int 推模式消费维度监控 ms1000To10000Count 110s次数 Int 推模式消费维度监控 msMorethan10000Count 10s以上次数 Int 推模式消费维度监控 messagecount 调用次数 Int Connection监控 notacknowledgedpublished 该连接中未确认的消息数 Int Total监控 messageerrorcount 消费消息的错误次数 Int Total监控 messagecount 消费消息数 Int Total监控 messagetotalpayload 消费字节数 Int Total监控 Max(messagetotalpayload) 单次消费最大字节数 Int Total监控 acknowledged Ack消息数 Int Total监控 rejected Reject消息数 Int Total监控 ms0To10Count 010ms次数 Int Total监控 ms10To100Count 10100ms次数 Int Total监控 ms100To500Count 100500ms次数 Int Total监控 ms500To1000Count 5001000ms次数 Int Total监控 ms1000To10000Count 110s次数 Int Total监控 msMorethan10000Count 10s以上次数 Int Total监控 notacknowledgedpublished 未确认的消息数 Int Total监控 messagemaxcost 最大响应时间 Int Total监控 sum(messagecost) 消费消息的总响应时间 Int
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        消息监控
        RabbitMqConsumer
      • 续费、到期与欠费
        本文介绍分布式消息服务RocketMQ到期前续费、到期处理、欠费原因、按需欠费资源冻结规则、查看欠费账单、充值等内容。 到期前续费 手动续订:对于包年/包月订购的分布式缓存服务,用户在资源到期前进行续费操作,可以延长原有资源到期时间,避免资源到期后冻结或超过保留期后被系统回收。详细操作请参考费用中心续订管理手动续订。 自动续订:自动续订仅针对采用包月、包年计费模式的资源,详细操作请参考费用中心续订管理自动续订。 到期处理 到期后,分布式消息服务RocketMQ进入保留期,您将不能正常访问及使用天翼云分布式消息服务RocketMQ服务,已开通的实例资源将予以保留。 若您在到期后15天内续费,自资源续订解冻开始,计算新的服务有效期,按照新的服务有效期计算费用; 若到期15天后您仍未续费,RocketMQ实例资源将被释放 欠费原因 在按需计费的模式下帐号的余额不足。 按需欠费资源冻结规则 欠费后,资源进入保留期,您将不能正常访问及使用分布式消息服务RocketMQ,已开通的实例资源将予以保留。 若您在保留期内充值,充值后系统会自动扣减欠费金额。 若保留期到期您仍未充值,RocketMQ实例资源将被释放。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        计费说明
        续费、到期与欠费
      • 产品优势
        本文主要介绍产品优势。 分布式消息服务Kafka完全兼容开源社区版本,旨在为用户提供便捷高效的消息队列。业务无需改动即可快速迁移上云,为您节省维护和使用成本。 一键式部署,免去集群搭建烦恼 您只需要在实例管理界面选好规格配置,提交订单。后台将自动创建部署完成一整套Kafka实例。 兼容开源,业务零改动迁移上云 兼容社区版Kafka的API,具备原生Kafka的所有消息处理特性。 业务系统基于开源的Kafka进行开发,只需加入少量认证安全配置,即可使用分布式消息服务Kafka,做到无缝迁移。 说明 Kafka实例兼容开源社区Kafka 1.1.0、2.3.0和2.7版本。在客户端使用上,推荐使用和服务端版本一致的版本。 安全保证 独有的安全加固体系,提供业务操作云端审计,消息存储加密等有效安全措施。 在网络通信方面,除了提供SASL(Simple Authentication and Security Layer)认证,还借助虚拟私有云(VPC)和安全组等加强网络访问控制。 数据高可靠 Kafka实例支持消息持久化,多副本存储机制。副本间消息同步、异步复制,数据同步或异步落盘多种方式供您自由选择。 集群架构与跨AZ部署,服务高可用 Kafka后台为多集群部署,支持故障自动迁移和容错,保证业务的可靠运行。 Kafka实例支持跨AZ部署,代理部署在不同的AZ,进一步保障服务高可用。不同AZ之间基于Kafka ISR(insync replica)进行数据同步,Topic需要选择数据多副本并且将不同副本分布到不同的ISR上,在ISR正常同步状态下,故障RPO(Recovery Point Objective)趋近于0。 无忧运维 云服务平台提供一整套完整的监控告警等运维服务,故障自动发现和告警,避免724小时人工值守。Kafka实例自动上报相关监控指标,如分区数、主题数、堆积消息数等,并支持配置监控数据发送规则,您可以在第一时间通过短信、邮件等获得业务消息队列的运行使用和负载状态。 海量消息堆积与弹性扩容 内建的分布式集群技术,使得服务具有高度扩展性。分区数可配置多达100个,存储空间弹性扩展,保证在高并发、高性能和大规模场景下的访问能力,轻松实现百亿级消息的堆积和访问能力。 多规格灵活选择 Kafka实例的带宽与存储资源可灵活配置,并且自定义Topic的分区数、副本数。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品优势
      • 认证授权
        本文为您介绍分布式消息服务MQTT的操作指南认证授权。 创建用户名和密码 终端设备连接MQTT队列需要先创建用户密码。 1、 天翼云官网点击控制中心,选择产品分布式消息服务MQTT。 2、 登录分布式消息服务MQTT控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入认证授权菜单,点击【新增】按钮,在弹出框输入认证用户名、用户密码、确认密码等信息。 主题授权 对用户名进行主题授权,客户端方可正常收发。 1、 选择需要授权的用户,点击【授权】按钮。 2、 在弹出框填写已创建的主题名称,主题权限包含3种:pub、sub、pubsub,支持通配符,代表所有主题。
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        认证授权
      • 回收站管理
        分布式消息服务MQTT实例在被删除后,会被临时存入回收站中,此时实例中的数据尚未被彻底删除,在保留天数内支持从回收站中恢复此实例。超过保留天数的实例会被彻底删除,无法恢复。 约束与限制 回收站中的实例不会收取实例的费用,但是会收取存储空间的费用。 包年/包月的实例退订后会存入回收站中,此时不会收取实例的费用,但是收取存储空间的费用。 回收站中的按需实例,不支持实例恢复。 回收站管理 1. 登录分布式消息服务MQTT管理控制台。 2. 在左侧导航栏选择“回收站”,进入“回收站”页面。 恢复MQTT实例 1. 登录分布式消息服务MQTT管理控制台。 2. 在左侧导航栏选择“回收站”,进入“回收站”页面。 3. 在待恢复MQTT实例所在行,单击“恢复”。 删除回收站中的实例 1. 登录分布式消息服务MQTT管理控制台。 2. 在左侧导航栏选择“回收站”,进入“回收站”页面。 3. 在待删除MQTT实例所在行,单击“销毁”。 注意 回收站中的MQTT实例删除后,实例中原有的数据将被删除,且没有备份,请谨慎操作。
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        实例管理
        回收站管理
      • 云实例间迁移
        分布式消息服务Kafka提供全托管、免运维的云实例间迁移服务,用于同云实例与分布式消息服务Kafka实例之间的数据同步。本文介绍云实例间迁移的源实例类型、使用限制以及使用流程。 背景信息 云实例间迁移可以把天翼云分布式消息服务Kafka集群的元数据(Topic、Group和SASL User信息)、消息数据和点位信息同步到目标集群,迁移完成后目标集群的元数据与原集群的元数据保持一致,并且支持持续更新和完成后自动停止任务。 使用限制 1.此功能不收费,会占用当前实例的服务器资源,请结合业务流量和服务器资源占用情况,在合理的情况下进行迁移 2.单机版不支持迁移 计费说明 分布式消息服务Kafka的云实例间迁移组件处于公测阶段,不会在分布式消息服务Kafka侧产生费用。同时,天翼云不承诺迁移的SLA。 创建迁移任务 1.登录分布式消息服务Kafka控制台。 2.在左侧导航栏,单击集群迁移 ,然后单击云实例间迁移。 3.在云实例间迁移页签,单击创建任务。 4.在创建 云实例间迁移任务面板,填写任务名称,选择目标实例,然后单击下一步。 5.填写接入点,选择源实例,任务数等,具体请看参数说明。 参数说明: 参数 说明 示例 源实例 下拉框选择源实例 192.168.XX.XX:9092 任务数 选择同步数据的任务数。取值说明如下:1、6、12 1 迁移完成后自动停止任务 迁移任务会自动检测是否完成迁移 是:在检测到消息数据完成同步后停止任务 否:不停止任务,您可以手动停止任务 否 Topic 要迁移的topic信息,选填,多个用半角逗号分开,不填则迁移所有topic topic1,topic2 Groups 要迁移的group信息,选填,多个用半角逗号分开,不填则迁移所有group group1,group2 副本数是否和源集群保持一致 迁移到目标集群的topic的副本数是否和源集群保持一致,默认否 是:副本数是否和源集群保持一致,如原集群topic副本数为1,迁移后的topic副本数也为1 否:迁移后topic的副本数为3 否 6.填写完参数后,单击创建 ,完成任务的创建,在任务列表能看到一条任务,状态为等待迁移,后台调度到此任务时,会将任务状态改为迁移中。 7.其他操作 查看任务详情:单击详情。在任务详情页面,查看云实例间迁移任务的基础信息、源服务、目标服务和运行环境配置信息。 查看同步进度:单击同步进度,选择查看的Topic,可以看到对应Topic的分区id,最早点位,最新点位和当前点位信息。 启停任务:单击停止,然后在提示对话框,单击确认可停止任务。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        集群迁移
        云实例间迁移
      • 产品优势
        分布式消息服务Kafka版完全兼容开源社区版本,旨在为用户提供便捷高效的消息队列。业务无需改动即可快速迁移上云,为您节省维护和使用成本。 一键式部署,免去集群搭建烦恼 专享实例只需要在实例管理界面选好规格配置,提交订单。后台将自动创建部署完成一整套Kafka实例。 兼容开源,业务零改动迁移上云 兼容社区版Kafka的API,具备原生Kafka的所有消息处理特性。 业务系统基于开源的Kafka进行开发,只需加入少量认证安全配置,即可使用分布式消息服务Kafka,做到无缝迁移。 说明:Kafka专享实例兼容开源社区Kafka 1.1.0和2.3.0版本。在客户端使用上,推荐使用和服务端版本一致的版本。 安全保证 独有的安全加固体系,提供业务操作云端审计,消息存储加密等有效安全措施。 在网络通信方面,除了提供SASL认证,还借助虚拟私有云(VPC)和安全组等加强网络访问控制。 数据高可靠 Kafka专享实例支持消息持久化,多副本存储机制。副本间消息同步、异步复制,数据同步或异步落盘多种方式供您自由选择。 集群架构与跨AZ部署,服务高可用 Kafka后台为多集群部署,支持故障自动迁移和容错,保证业务的可靠运行。 Kafka专享实例支持跨AZ部署,节点部署在不同的AZ,进一步保障服务高可用。 无忧运维 公有云提供一整套完整的监控告警等运维服务,故障自动发现和告警,避免724小时人工值守。Kafka专享实例自动上报相关监控指标,如分区数、主题数、堆积消息数等,并支持配置监控数据发送规则,您可以在第一时间通过短信、邮件等获得业务消息队列的运行使用和负载状态。 海量消息堆积与弹性扩容 内建的分布式集群技术,使得服务具有高度扩展性。分区数可配置多达100个,存储空间弹性扩展,保证在高并发、高性能和大规模场景下的访问能力,轻松实现百亿级消息的堆积和访问能力。 多规格灵活选择 Kafka专享实例的带宽与存储资源可灵活配置,并且自定义Topic的分区数。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        产品简介
        产品优势
      • 元数据迁移
        本文介绍如何在分布式消息服务Kafka控制台创建元数据导入任务,将元数据迁移至分布式消息服务Kafka现有实例。 前提条件 下载JDK8 购买并部署分布式消息服务Kafka实例 背景信息 Kafka集群元数据是指Kafka集群的Topic和Group配置信息。Kafka集群元数据存储于ZooKeeper上,Kafka集群各个节点从ZooKeeper中获取最新的元数据。因此,集群的各个节点的元数据被导出时都是最新且相同的。Kafka集群元数据可以被导出成一份JSON文件,然后被导入到另一个Kafka集群,实现自建Kafka集群元数据迁移上云。 元数据迁移是指将自建Kafka集群的元数据迁移到分布式消息服务Kafka实例。您可以将自建Kafka集群元数据导出,然后导入云分布式消息服务Kafka实例,分布式消息服务Kafka会解析成功导入的元数据,并支持在创建任务时可视化配置Topic和Group,配置完成后在目标实例中创建对应的Topic和Group,实现自建Kafka集群元数据迁移上云。 步骤一:导出元数据 使用元数据导出工具导出自建Kafka集群的元数据文件。 1.下载元数据导出工具,登陆分布式消息服务Kafka控制台>集群迁移>元数据迁移>创建任务>下载工具 下载对应jar包 2.将下载好的工具上传至能连接到Kafka集群的机器上 3.运行以下命令,导出元数据。运行命令后,您将在kafkamigration.jar 同级目录下看到 名为 metadata.json 的元数据文件。 java cp kafkamigration.jar com.ctg.migration.kafka.MigrationMetadata sourceKafkaConnect (resource topic,group username password mechanism configKey ) 参数 说明 示例 sourceKafkaConnect 自建Kafka集群的IP地址和端口号。 192.168.XX.XX:9092 resource 要导出的资源,可以是topic、 group或topic,group 默认topic,group topic,group username 连接kafka用户名,如果sourceKafkaConnect为免密接入点则无需填写 admin user password 连接kafka密码,如果sourceKafkaConnect为免密接入点则无需填写 real password mechanism 对应的协议,支持PLAIN、SCRAMSHA256、SCRAMSHA512,如果sourceKafkaConnect为免密接入点则无需填写 PLAIN configKey 源集群topic配置,支持多个key,多个用半角逗号分开,all:表示所有配置(不推荐),具体支持哪些配置可以通过(bin/kafkaconfigs.sh help)命令查看 默认值为:retention.ms retention.ms,max.message.bytes
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        集群迁移
        元数据迁移
      • 配置告警
        创建联系人组 进入分布式消息服务MQTT管理控制台,在实例列表页点击管理进入实例详情页,左侧菜单点击告警管理 点击通知组菜单,右侧点击新建联系人组,输入联系人信息信息,点击保存 创建通知策略 进入分布式消息服务MQTT管理控制台,在实例列表页点击管理进入实例详情页,左侧菜单点击告警管理 点击通知策略菜单,右侧点击创建通知策略,输入信息,点击确认 创建告警规则 进入分布式消息服务MQTT管理控制台,在实例列表页点击管理进入实例详情页,左侧菜单点击告警管理 点击告警规则菜单,右侧点击创建告警规则,选择告警指标,输入告警条件、告警内容等信息,点击保存 成为第一个赞同者
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        监控与告警
        配置告警
      • 查看消费者连接地址
        本章节介绍了如何查看分布式消息服务RocketMQ实例的消费者连接地址。 操作场景 分布式消息服务RocketMQ支持通过控制台查看消费者连接地址。 说明:消费者处于连接RocketMQ实例时,才可以查看消费者连接地址。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,选择“实例诊断”,进入实例诊断页面。 4. 在“消费组”中,选择待查看消费者连接地址的消费组名称,单击“开始诊断”。 5. 在诊断记录所在行,单击“查看报告”。 6. 在“结果分析”区域,查看消费者连接地址。 图1 消费者连接地址
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        消费组管理
        查看消费者连接地址
      • 支持的功能模块
        本章节介绍应用容灾多活中不同的应用架构支持的功能模块。 应用架构 支持的功能模块 应用双活 管控通道 注册配置中心RCC 应用双活 接入层 云原生网关CGW 应用双活 服务层 SpringCloud 应用双活 服务层 Dubbo 应用双活 数据层 关系型数据库MySQL版 应用双活 数据层 关系型数据库PostgreSQL版 应用双活 消息层 分布式消息服务RocketMQ 数据双活 管控通道 注册配置中心RCC 数据双活 接入层 云原生网关CGW 数据双活 服务层 SpringCloud 数据双活 服务层 Dubbo 数据双活 数据层 关系型数据库MySQL版 数据双活 数据层 关系型数据库PostgreSQL版 数据双活 消息层 分布式消息服务RocketMQ
        来自:
        帮助文档
        应用高可用
        购买指南
        应用容灾多活计费说明
        支持的功能模块
      • 流数据实时处理框架Flink接入Kafka
        本文主要介绍流数据实时处理框架Flink接入Kafka 。 最佳实践概述 场景描述 如果您想要在流数据实时处理场景下,使用Kafka作为流数据的源或者使用Kafka作为流数据的目的,需要将Kafka与Flink对接,可以参考本实践方案。 技术架构图 暂无。 方案优势 用户可按业务需要,参考设置Kafka与Flink框架对接,实现流数据的消息消费。 前提条件 需已购买Kafka实例、创建Topic,并且已成功消费消息。 资源规划 本实践方案内容仅涉及Kafka专享版实例和Flink的安装配置。 分布式消息服务 Figure 分布式消息服务 资源类型 配置项 配置明细 说明 :::: 企业中间件 DMS Kafka专享实例 需已购买kafka专享实例,创建好Topic,并成功消费消息。 Flink流数据处理框架 Figure Flink框架 资源类型 配置项 配置明细 说明 :::: 应用软件 Flink框架 Flink 1.14 使用开源Apache Flink 方案正文 获取Kafka访问地址 1、登录分布式消息服务Kafka版控制台,按需要单击“实例名称”,进入实例基本信息页面。 图 Kafka控制台实例列表 2、在“连接地址”模块,获取Kafka连接IP地址。 图 连接IP地址与端口
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        流数据实时处理框架Flink接入Kafka
      • 产品优势
        本节主要介绍分布式消息服务Kafka的产品优势 分布式消息服务Kafka的产品优势主要包括以下几个方面: 高可用性 生产消费自动负载均衡,消息节点故障时自动主备切换,保证服务的连续性。Kafka实例支持消息持久化,多副本存储机制。副本间消息同步、异步复制,数据同步或异步落盘多种方式供您自由选择。Kafka实例支持跨AZ部署,代理部署在不同的AZ,进一步保障服务高可用。 为了实现Kafka的高可用性,有以下几个关键要素: 分布式架构:Kafka采用分布式架构,消息被分散到多个Broker节点上进行存储和处理。这样即使某个Broker节点发生故障,其他节点仍然可以继续正常运行。 副本机制:Kafka使用副本机制来保证数据的可靠性和高可用性。每个主题(topic)可以有多个分区(partition),而每个分区都有若干个副本(replica)。可配置的参数决定了每个分区的副本数量。副本之间会进行数据同步,当主副本发生故障时,可以选择其中一个副本作为新的主副本,从而保证数据的可用性。 故障检测与自动恢复:Kafka集群中的Broker节点会定期进行心跳检测,以确保其他节点的健康状态。如果某个节点长时间没有响应,就会被认为是故障节点,此时会触发自动恢复机制,选择一个副本作为新的主副本,并从其他节点中复制数据。这样可以保证在节点故障的情况下,Kafka集群仍然能够正常运行。 故障转移:当一个主副本发生故障时,副本控制器(controller)会监测到这个故障,并触发故障转移操作。故障转移的过程包括选择新的主副本、数据同步和通知Producer和Consumer更新元数据信息。这样可以保证在节点故障的情况下,Kafka集群中的数据仍然能够得到完整和正确的处理。 通过以上的机制和策略,Kafka实现了高可用性,即使在节点故障的情况下,仍然能够提供可靠的消息传输和处理。这使得Kafka成为了很多场景下的首选消息队列系统。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品优势
      • 认证与访问控制
        介绍分布式消息服务Kafka认证与访问控制方式 分布式消息服务Kafka支持CTIAM身份认证和多种访问控制,多维度保障您数据的安全。 身份认证 CTIAM 统一身份认证(Identity and Access Management, 简称:CTIAM)是提供用户进行权限管理的基础服务,可以帮助您安全的控制天翼云服务和资源的访问及操作权限,包括:用户身份认证、权限分配、访问控制等功能。具体介绍请参考统一身份认证产品介绍。 您可以创建IAM用户,并为其设置关联分布式消息服务Kafka实例权限,该用户就可以通过用户名和密码访问授权的实例资源。具体请参见统一身份认证快速入门创建IAM用户。 访问控制 权限控制 购买分布式消息服务Kafka实例之后,您可以使用CTIAM为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,通过CTIAM进行精细的权限管理。 VPC和子网 虚拟私有云(Virtual Private Cloud,VPC)为分布式消息服务Kafka构建隔离、私密的虚拟网络环境,提升数据库的安全性,并简化用户的网络部署。您可以完全掌控自己的专有网络,VPC丰富的功能帮助您灵活管理云上网络,包括创建子网、设置安全组和网络ACL、管理路由表、申请弹性公网IP和带宽等。通过子网与其他网络隔离,独享网络资源,提高网络安全性。具体内容请参见虚拟私有云用户指南创建虚拟私有云和子网 。 安全组 安全组是一个逻辑上的分组,可以为同一个虚拟私有云内具有相同安全保护需求并相互信任的Kafka实例提供相同的访问策略。您可以通过为数据库实例设置安全组,开通需访问Kafka实例的IP地址和端口,来保证保障其运行环境的安全性和稳定性。具体请参见配置安全组
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        安全
        认证与访问控制
      • SDK概述
        本文介绍了分布式消息服务Kafka版提供的SDK语言版本。 SDK列表 下表提供了分布式消息服务Kafka版支持的SDK列表。 编程语言 参考文档 :: Java 开发指南Java Python 开发指南Python Go 开发指南Go
        来自:
        帮助文档
        分布式消息服务Kafka
        SDK参考
        SDK概述
      • 修改实例
        场景说明 RocketMQ的修改实例的场景描述如下: 在使用RocketMQ时,可能会遇到需要修改实例的场景,例如: 业务变更:当业务需求发生变化,需要修改RocketMQ实例的名称以反映新的业务逻辑时,可以进行实例名称的修改。例如,当新增或调整了某个业务模块,需要将其对应的实例名称修改为更准确的名称,以便于管理和监控。 消息处理速度优化:当消息的处理速度较慢或不稳定时,可以通过调整消息保存时长参数来优化消息的处理效率。例如,可以缩短消息的保存时长,减少消息在系统中的停留时间,以提高消息的实时性和处理速度。 安全配置修改:当需要修改RocketMQ实例的安全配置时,可以进行相应的修改。 需要注意的是,在进行实例的修改时,应该谨慎操作,并根据实际需求和系统情况进行调整。同时,修改实例时应该遵循RocketMQ的最佳实践和建议,以确保系统的稳定性和性能。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 进入实例列表,在实例名称点击修改按钮,直接修改实例名称字段。 3、 点击【管理】按钮进入管理菜单。点击修改配置,在弹出窗口修改实例描述和消息保存时长等信息。 注意 实例描述长度限制为0~256个字符。 您可以调整消息保存时长参数,实现消息容量消耗的控制。安全生产和稳定性保障限制,消息需要至少保留24小时。 要完整支持延时消息的功能,消息需要至少保留48小时。 4、 点击修改安全组,选择变更用户安全组。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        修改实例
      • 基于消息队列RocketMQ实现全链路灰度
        本章节介绍如何基于消息队列RocketMQ实现全链路灰度 概述 本文介绍在使用消息队列(RocketMQ)这种异步场景下,可以在不修改业务代码的情况下,实现异步场景的灰度,从而实现全链路灰度。本文介绍基于消息队列RocketMQ实现全链路灰度。 背景介绍 在大多数业务场景中对于消息的灰度并没有RPC调用那么严格,但是当全链路灰度调用中涉及到消息消费时,如果消息消费没有按照全链路流量规则路由,则会导致通过消息产生的流量逃逸,从而破坏全链路规则,导致出现一些不符合预期的情况。 如下图所示,本文分别部署网关、appa、appagray、appb、appbgray、appc、appcgray以及RocketMQ,模拟一个真实的全链路灰度场景。 通过网关调用appa应用的接口,当满足路由规则后,灰度流量会被路由到appagray,appagray又会调用appbgray,随后由appbgray发送灰度消息,appcgray将会收到灰度消息,而appc不会收到灰度消息。 前提条件 1. 用户已开通微服务治理中心企业版。 2. 用户已开通云容器引擎。 3. 用户已部署RocketMQ,且RocketMQ版本在4.5.0以上,broker.conf中已配置enablePropertyFiltertrue。 部署Demo应用 准备自建入口网关msgczuul,准备应用msgcappa,msgcappb和msgcappc。调用过程是msgcappa –> msgcappb > msgcappc。 步骤1:在云容器引擎中安装微服务治理插件: 1. 登录“云容器引擎”控制台。 2. 在左侧菜单栏选择“集群”,点击目标集群。 3. 在集群管理页面点击“插件”“插件市场”,选择“cubems”插件安装。 步骤2:为应用开启微服务治理能力: 1. 登录“云容器引擎”控制台。 2. 左侧菜单栏选择“集群”,点击目标集群。 3. 在集群管理页面点击“工作负载”“无状态”,选择目标命名空间。 4. 在Deployment列表页选择指定Deployment,并点击“全量替换”,进入Deployment编辑页。 5. 在Deployment编辑页点击“显示高级设置”,新增“Pod标签”: mseCubeMsAutoEnable:on。 6. 在发布应用时,配置指定环境变量,可指定注入微服务治理中心的应用名、命名空间和标签等信息。 环境变量配置如下: 环境变量名 环境变量值 MSEAPPNAME 接入到微服务治理中心的应用名。 MSESERVICETAG 应用标签信息,如灰度应用可配置gray。 MSENAMESPACE(选填) 接入到微服务治理中心的命名空间,默认为:default。 7. 完成编辑后点击“提交”,重新发布容器即可接入。 appa应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appb应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appc应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" zuul应用的配置: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "zuul" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "zuul" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "zuul" spec: containers: env: name: "MSEAPPNAME" value: "zuul" image: "镜像仓库域名/xxx/zuul:latest" imagePullPolicy: "Always" name: "zuul" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi"
        来自:
        帮助文档
        微服务引擎
        最佳实践
        基于消息队列RocketMQ实现全链路灰度
      • 如何提高消息处理效率
        介绍分布式消息服务Kafka 如何提高消息处理效率。 要提高Kafka的消息处理效率,可以考虑以下几个方面: 分区和副本设置:合理设置分区和副本数量,可以提高并行处理能力和容错性。较大的分区数可以增加并行处理的能力,而较多的副本数可以提高数据的冗余和可用性。 优化消息生产者:在消息生产者端,可以采取一些措施来提高效率。例如,使用批量发送来减少网络开销,使用异步发送来提高吞吐量,设置适当的缓冲区大小来避免频繁的IO操作等。 优化消息消费者:在消息消费者端,可以通过增加消费者实例来提高并行处理能力。同时,可以使用多线程或多进程方式来并行处理消息,提高处理效率。 合理设置Kafka参数:根据实际情况,可以调整Kafka的一些参数来提高性能。例如,调整消息的最大大小、网络缓冲区大小、批量发送的大小等。 使用分区和消费者组:合理使用分区和消费者组可以提高消息的负载均衡和并行处理能力。分区可以将消息分散到多个消费者实例上,而消费者组可以将消息分发给不同的消费者组成的消费者实例。 监控和调优:定期监控Kafka集群的性能指标,如吞吐量、延迟等,并进行调优。可以通过调整参数、增加资源、优化代码等方式来提高性能。 总之,提高Kafka的消息处理效率需要综合考虑多个因素,包括分区和副本设置、优化生产者和消费者、调整参数、硬件优化等。根据实际情况进行优化,可以提高Kafka的性能和吞吐量。 对使用分布式消息服务kafka的生产者和消费者有如下的使用建议:
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        如何提高消息处理效率
      • 环境准备
        本文为您分布式消息服务MQTT的环境准备内容。 在创建天翼云分布式消息服务MQTT实例之前,您需要做一些准备工作。 首先,您需要设置一个虚拟私有云(VPC),这是一个隔离的网络环境,用于托管MQTT实例。 接下来,您需要创建一个子网,它是VPC内部的一个子网络,用于划分不同的部分和区域。 最后,您需要配置一个安全组,用于控制入站和出站的流量规则,以保证MQTT实例的安全性。 每个分布式消息服务MQTT实例都会被部署在特定的VPC中,并与特定的子网和安全组相关联。这种方式可以让您自主配置和管理MQTT实例的网络环境,并提供安全保护策略。如果您已经有了现成的VPC、子网和安全组,可以重复使用它们,无需重复创建。这样可以节省时间和资源,并确保一致性和可靠性。 VPC和子网 VPC和子网可重复使用,您也可以使用不同的VPC和子网来配置MQTT实例,您可根据实际需要进行配置。在创建VPC和子网时应注意如下要求: VPC与使用的天翼云分布式消息服务MQTT服务应在相同的区域。 如无特殊需求,创建VPC和子网的配置参数使用默认配置即可。 创建VPC和子网的操作请参考虚拟私有云创建VPC、子网搭建私有网络。 若需要在已有VPC上创建和使用新的子网,请参考虚拟私有云子网管理创建子网。
        来自:
        帮助文档
        分布式消息服务MQTT
        快速入门
        环境准备
      • 查看示例代码
        本文主要介绍查看示例代码。 本章节指导您在控制台查看Java、Go和Python生产消费消息的示例代码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 单击“查看示例代码”,弹出“生产消费示例代码”对话框。 查看Java、Go和Python生产消费消息的示例代码。示例代码区分是否开启SASLSSL认证,“接入类型”为“PLAINTEXT”时,表示未开启SASLSSL认证。“接入类型”为“SASLSSL”时,表示已开启SASLSSL认证。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看示例代码
      • 计费项
        本节主要介绍分布式消息服务Kafka的计费项 分布式消息服务Kafka的计费项由实例费用和存储费用组成,具体费用详情可参考产品资费。 计费项 计费项说明 使用的计费模式 计费公式 实例费用 计费因子:代理规格和代理数量 包年/包月、按需计费 实例规格单价 代理数量 购买时长 存储空间费用 计费因子:云硬盘类型、容量大小 包年/包月、按需计费 云硬盘规格单价 单个代理存储大小 代理数量 购买时长
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        计费项
      • 计费模式
        本文为您介绍分布式消息服务MQTT的计费模式。 目前天翼云分布式消息服务MQTT提供包周期(包年/包月)、按需2种计费模式供您灵活选择,使用越久越便宜。 下表列出两种模式的区别: 计费模式 包年/包月 按需计费 付费方式 预付费按照订单的购买周期结算。 后付费按照云服务器实际使用时长计费。 计费周期 按订单的购买周期计费。 按小时结算。 实例升级 暂不支持实例升级。 暂不支持实例升级。 更改计费模式 不支持变更为按需资源。 不支持变更为包周期资源。 变更规格 暂不支持变更实例规格。 暂不支持变更实例规格。 适用场景 适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。对于长期使用者,推荐该方式。 适用于消息资源需求波动的场景,可以随时开通,随时删除。 包周期(包年/包月):天翼云提供包月和包年的购买模式。这种购买方式相对于按需付费则能够提供更大的折扣,对于长期使用者,推荐该方式。包周期计费按照订单的购买周期来进行结算。 按需计费:这种购买方式比较灵活,可以即开即停,支持秒级计费。实例从“开通”开启计费到“删除”结束计费,按实际购买时长(精确到秒)计费。 计费模式变更 :天翼云分布式消息服务MQTT目前不支持计费模式变更。
        来自:
        帮助文档
        分布式消息服务MQTT
        计费说明
        计费模式
      • 如何判断和处理消息堆积?
        本节介绍Kafka 判断和处理消息堆积 判断消息堆积是否属于正常情况 登录“分布式消息服务Kafka”控制台,在“消费组管理”页面,找到目标消费组,进入“消息堆积”页面。 (1)堆积量保持在一个稳定的数值之间波动,没有持续扩大。说明客户端一直在拉取最新消息,没有消息堆积,属于正常情况。 (2)堆积量逐步扩大,并且当前位点一直不变。客户端的消费线程因为某些原因卡住,没有继续消费,也没有继续向服务端提交位点,属于异常情况,即消息的确堆积了。 (3)堆积量逐步扩大,同时当前位点在前进。说明客户端还在消费中,但是消息的消费速度慢于消息的发送速度。消息堆积大多是消费速度过慢或者消费线程阻塞造成的,建议不要在消费逻辑中有太多耗时的操作。 消息堆积的处理方式 经过上述判断,确认消息的确存在堆积情况时,建议打印消息的消费耗时,或者根据堆栈信息查看线程执行情况,适当调整以加快消息的消费速度,避免出现消息堆积。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        如何判断和处理消息堆积?
      • 创建Topic
        本节主要介绍分布式消息服务Kafka的创建Topic说明 背景信息 Kafka的主题(Topic)是对消息进行分类和组织的概念。主题是Kafka中最基本的逻辑单元,用于区分不同类型的消息。 每个主题可以有多个分区(Partition),每个分区都是一个有序的消息日志。分区允许消息在集群中进行并行处理,提高了吞吐量和并发性能。 主题的特点包括: 逻辑分类:主题可以根据业务需求或数据类型进行逻辑分类,例如订单主题、日志主题、用户行为主题等。 多分区:主题可以被分成多个分区,每个分区都有自己的消息顺序。分区可以在不同的节点上进行存储和处理,实现了水平扩展和负载均衡。 副本复制:每个分区可以有多个副本(Replica),副本用于提供高可用性和容错性。副本可以分布在不同的节点上,当节点故障时可以自动进行故障转移。 持久化存储:主题中的消息被持久化存储在磁盘上,确保消息的可靠性和持久性。消费者可以随时消费主题中的历史消息,而不仅仅是最新的消息。 通过使用主题,Kafka能够有效地组织和管理大规模的消息流。主题的分区和副本机制提供了高可用性和容错性,使得Kafka成为处理大规模实时数据流的理想选择。 前提条件 已购买并部署分布式消息服务Kafka 操作步骤 创建Topic (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后、点击“创建Topic”。 (5)点击“创建Topic”后,输入Topic名称、分区数等参数。 (6)创建好Topic后,可以点击“更多”按钮中的“生产消息”来测试其是否正常。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        创建Topic
      • 环境准备
        本文介绍分布式消息服务Kafka入门指引的环境准备内容。 概述 在创建天翼云分布式消息服务Kafka实例之前,您需要做一些准备工作。 首先,您需要设置一个虚拟私有云(VPC),这是一个隔离的网络环境,用于托管Kafka实例。 接下来,您需要创建一个子网,它是VPC内部的一个子网络,用于划分不同的部分和区域。 最后,您需要配置一个安全组,用于控制入站和出站的流量规则,以保证Kafka实例的安全性。 每个分布式消息服务Kafka实例都会被部署在特定的VPC中,并与特定的子网和安全组相关联。这种方式可以让您自主配置和管理Kafka实例的网络环境,并提供安全保护策略。如果您已经有了现成的VPC、子网和安全组,可以重复使用它们,无需重复创建。这样可以节省时间和资源,并确保一致性和可靠性。 VPC和子网 VPC和子网可重复使用,您也可以使用不同的VPC和子网来配置Kafka实例,您可根据实际需要进行配置。在创建VPC和子网时应注意如下要求: ● VPC与使用的天翼云分布式消息服务Kafka服务应在相同的区域。 ● 如无特殊需求,创建VPC和子网的配置参数使用默认配置即可。 创建VPC和子网的操作请参考虚拟私有云创建VPC、子网搭建私有网络。 若需要在已有VPC上创建和使用新的子网,请参考虚拟私有云子网管理创建子网。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        环境准备
      • 服务内联委托
        应用场景 注意:在以下场景需要获取其他云服务资源的访问权限。 分布式消息服务RocketMQ 应用多活功能需要查询分布式消息服务RocketMQ实例信息、同步分布式消息服务RocketMQ数据,因此需要获取访问分布式消息服务RocketMQ服务的权限。 关系数据库MySQL版 应用多活功能需要查询关系数据库MySQL版实例信息,因此需要获取访问关系数据库MySQL版服务的权限。 关系数据库PostgreSQL版 应用多活功能需要查询关系数据库PostgreSQL版实例信息,因此需要获取访问关系数据库PostgreSQL版服务的权限。 数据传输服务DTS 应用多活功能需要通过数据传输服务DTS同步数据库数据,因此需要获取访问数据传输服务DTS服务的权限。 微服务引擎云原生网关 应用多活功能需要向微服务引擎云原生网关推送多活规则,因此需要获取访问微服务引擎云原生网关服务的权限。 微服务引擎注册配置中心 应用多活功能需要微服务引擎注册配置中心管理多活规则,因此需要获取访问微服务引擎注册配置中心服务的权限。 服务内联委托说明 登录系统控制台时,系统会检查当前账号是否已有服务内联委托adtsadmin ,如果不存在则会弹出提示,在您确认授权后,系统自动创建服务内联委托adtsadmin 并授权应用高可用委托授权管理员权限策略。 创建完成后,您可以在IAM控制台的角色管理页面、API或CLI调用ListDelegates 获取委托列表的返回结果中查看已创建的服务内联委托。您还可以登录系统控制台,如果可以正常使用则表示已成功创建服务内联委托。 注意 如果没有adtsadmin服务内联委托权限,可能会因为某个服务权限不足而影响系统功能的正常使用。 请不要自行删除或者修改adtsadmin委托以及应用高可用委托授权管理员权限策略。
        来自:
        帮助文档
        应用高可用
        用户指南
        应用容灾多活
        权限管理
        服务内联委托
      • 1
      • ...
      • 11
      • 12
      • 13
      • 14
      • 15
      • ...
      • 531
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      应用托管

      一站式智算服务平台

      智算一体机

      人脸实名认证

      人脸活体检测

      动作活体识别

      推荐文档

      消费消息

      操作手册

      FTP搭建部署(附软件下载地址)

      创建消费组

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号