云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务Kafka_相关内容
      • 连接RabbitMQ 管理地址
        本文主要介绍如何连接分布式消息服务RabbitMQ的管理地址。 在浏览器中输入RabbitMQ管理地址,访问开源RabbitMQ的集群管理工具。 操作步骤 一、获取实例管理地址。 1. 登录管理控制台。 2. 在管理控制台右上角单击,选择区域。 说明 此处请选择与您的应用服务相同的区域。 3. 在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务 > RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 4. 单击实例名称,进入实例详情页面,获取Web界面UI地址和用户名。 图1 获取实例Web界面UI地址(未开启公网访问) 图2 获取实例Web界面UI地址(开启公网访问) 说明 用户名和密码为创建RabbitMQ实例时自定义的内容。 二、确认实例安全组规则是否配置正确。 1. 在实例详情页面的“基本信息 > 网络”,单击安全组名称,跳转到安全组页面。 2. 选择“入方向规则”,查看安全组入方向规则。 实例未开启SSL开关 如果是VPC内访问,实例安全组入方向规则,需要允许端口5672的访问。 如果是公网访问,需要允许端口15672的访问。 实例已开启SSL开关 如果是VPC内访问,实例安全组入方向规则,需要允许端口5671的访问。 如果是公网访问,需要运行端口15671的访问。 三、在浏览器中打开Web界面UI地址,进入Web登录页面。 说明 如果RabbitMQ实例开启了公网访问,可直接在公网环境下的浏览器访问Web页面。 如果RabbitMQ实例未开启公网访问,您需要购买一台与RabbitMQ实例网络相通的Windows弹性云主机,然后登录弹性云主机访问Web页面。 购买弹性云主机操作,请参考 图3 登录实例Web页面 四、单击“Login”,登录完成。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        连接实例
        连接RabbitMQ 管理地址
      • 扩容
        场景描述 当需要处理大量消息时,RocketMQ实例的扩容是一种常见的解决方案。扩容可以增加RocketMQ集群的吞吐量、存储能力和高可用性。分布式消息服务RocketMQ提供三类扩容方案,分别为节点、规格和磁盘扩容,更好满足用户不同场景下的扩容需求。 节点扩容:指向RocketMQ集群中添加更多的节点以增加系统的吞吐量和可靠性。通过扩容,可以将消息的发送和消费负载分摊到更多的节点上,从而提高系统的并发处理能力。 规格扩容:指通过增加RocketMQ的资源配置来提升系统的处理能力和性能。 磁盘扩容:指增加磁盘的存储容量,以满足更多消息的存储需求。 操作步骤 以下适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5 节点。 扩容 1、登录RocketMQ消息控制台,可以看到当前租户下面的实例列表。 2、点击需要变更实例栏 > 更多 > 扩容。 3、进入到扩容页面,选择你需要扩容的规格即可。 注意:实例类型升级将会重启实例,请尽量选择业务低峰期,避免业务受到影响。 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点。
        来自:
      • RabbitMQ资源
        本章节主要介绍分布式消息服务RabbitMQ资源。 资源是服务中存在的对象。在DMS for RabbitMQ中,资源包括:rabbitmq,您可以在创建自定义策略时,通过指定资源路径来选择特定资源。 表1 DMS for RabbitMQ的指定资源与对应路径 指定资源 资源名称 资源路径 rabbitmq 实例 【格式】 DMS:::rabbitmq:实例ID 【说明】 对于实例资源,IAM自动生成资源路径前缀DMS:::rabbitmq: 通过实例ID指定具体的资源路径,支持通配符。例如: DMS:::rabbitmq:表示任意RabbitMQ实例。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        权限管理
        RabbitMQ资源
      • Topic管理
        本章节介绍 Topic管理 。 操作场景 Topic创建成功后,查询Topic相关的配置和状态信息。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“Topic管理”,进入“Topic管理”页面。 4. 单击需要查询的Topic名称,进入Topic详情页面。 在详情页上方可以查看Topic名称、关联代理、读队列个数、写队列个数和权限。 在详情页下方可以查看Topic在每个代理上的队列状态,包括队列ID、最小偏移量、最大偏移量和消息更新时间。还可以查看消费组消费此Topic的情况,包括消费组名称、最大重试次数和广播消费。 图1 Topic详情
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        Topic管理
      • 查设备连接信息
        本文为您介绍分布式消息服务MQTT的API设备客户端查设备连接信息。 GET URI参数说明: 参数名 参数类型 是否必填 参数描述 prodInstId String 是 实例ID clientId String 是 设备ID 返回参数说明: 参数名 参数类型 参数描述 statusCode Integer 800成功 其他失败 message String 描述状态 returnObj Object 返回对象 returnObj.connectedat String 连接时间 returnObj.sendmsg Integer 发送消息数量 returnObj.disconnectedat String 断开时间 returnObj.recvmsg Integer 接收消息数量 returnObj.protoname String 协议名称 returnObj.connected Boolean 是否在线 returnObj.username String 用户名 returnObj.cleanstart Boolean 持久化会话 返回示例:(800)成功 {"statusCode": 800,"message": "success","returnObj": [{"connectedat": "20220824 16:28:14","sendmsg": 181,"subscriptionscnt": 1,"disconnectedat": "20220824 16:47:30","recvmsg": 0,"protoname": "MQTT","connected": false,"username": "test","cleanstart": false}]} 返回示例:失败 {"returnObj": null,"message": "error","statusCode": "900"}
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        设备客户端
        查设备连接信息
      • RabbitMQ惰性队列
        本文主要介绍分布式消息服务RabbitMQ的惰性队列最佳实践。 使用场景 默认情况下,RabbitMQ生产者生产的消息存储在内存中,当需要释放内存时,会将内存中的消息换页至磁盘中。换页操作会消耗较长的时间,且换页过程中队列无法处理消息。 如果生产速度过快(例如执行批处理任务),或者消费者由于各种原因(例如消费者下线、宕机)长时间内无法消费消息,导致消息大量堆积,使得内存使用率过高,换页频繁,可能会影响其他队列的消息收发。这种场景下,建议您启用惰性队列。 惰性队列(Lazy Queue)会尽可能的将消息存入磁盘中,在消费者消费到相应的消息时才会被加载到内存中,这样可以减少内存的消耗,但是会增加I/O的使用,影响单个队列的吞吐量。惰性对列的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储/消息堆积。 在以下情况下,推荐使用惰性队列: 队列可能会产生消息堆积 队列对性能(吞吐量)的要求不是非常高,例如TPS 1万以下的场景 希望队列有稳定的生产消费性能,不受内存影响而波动 处于以下情况时,无需使用惰性队列: RabbitMQ需要高性能的场景 队列总是很短(即队列中没有消息堆积) 设置了最大长度策略 设置惰性队列 队列具备两种模式:default和lazy,默认模式为default。lazy模式即为惰性队列的模式,可以通过调用channel.queueDeclare方法的时候在参数中设置,也可以通过Policy的方式设置。如果一个队列同时使用这两种方式设置的话,Policy的方式具备更高的优先级。 以下示例演示在Java客户端通过调用channel.queueDeclare设置惰性队列。 Map args new HashMap (); args.put("xqueuemode", "lazy"); channel.queueDeclare("myqueue", false, false, false, args); 以下示例演示在RabbitMQ的Web界面通过Policy的方式设置惰性队列。 更多关于惰性队列的说明,请参考Lazy Queues 。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ惰性队列
      • 连接管理
        介绍分布式消息服务RabbitMQ连接管理内容。 背景信息 RabbitMQ 连接管理的背景信息如下: 生产者连接管理:在 RabbitMQ 中,生产者负责将消息发送到队列中。在高并发的场景下,可能会有大量的生产者与 RabbitMQ 建立连接。因此,连接管理变得至关重要。在这种场景下,需要确保连接的稳定性和可用性,以确保生产者能够持续地发送消息,并避免连接的过度消耗。 消费者连接管理:消费者负责从队列中接收消息并进行处理。在高负载的情况下,可能会有大量的消费者连接到 RabbitMQ。在这种场景下,需要进行连接的管理和优化,以确保消费者能够高效地处理消息,并避免过多的连接占用资源。 连接池管理:为了更好地管理连接,可以使用连接池来对 RabbitMQ 连接进行复用和管理。连接池可以帮助控制连接的数量,避免频繁地创建和销毁连接,提高系统的性能和资源利用率。通过连接池管理,可以确保连接的可用性,并有效地管理连接的生命周期。 连接超时和重连:在网络不稳定或 RabbitMQ 实例发生故障时,连接可能会中断或超时。在这种情况下,需要实现连接的超时和重连机制,以确保连接能够及时地恢复,并保持与 RabbitMQ 的正常通信。通过合理设置连接超时和重连策略,可以提高系统的可靠性和稳定性。 总之,RabbitMQ 连接管理的场景涉及生产者连接管理、消费者连接管理、连接池管理以及连接超时和重连。通过合理的连接管理和优化,可以提高系统的性能、可用性和稳定性,确保消息的可靠传递和处理。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        连接管理
      • 分布式事务全局一致性
        全局时钟(Global Timestamp) 全局时钟在分布式数据库中的作用是通过提供统一的时间参考,确保系统内各组件协同工作时的时间同步,从而保障数据的一致性和系统的正确运行。如下为全局时钟的架构和分布式并发记录结构。 由GTM提供全局唯一的事务id和全局事务快照。当事务执行时,会话携带全局事务id,各节点通过全局事务id来判断数据的可见性。 全局时钟通过分布式并发记录来保障各组件协同工作时的时间同步。分布式并发控制核心点如下: 1. 逻辑时钟从零开始内部单向递增且唯一,由GTM维护,定时和服务器硬件计数器对齐,从而保证时钟源稳定。 2. 多个GTM节点构成集群,主节点对外提供服务;主备之间通过日志同步时间戳状态,保证GTS核心服务可靠性。 3. 单台物理机每秒能够处理1200万QPS,几乎满足所有业务场景。 4. 段页式存储的MVCC是整个并发控制的基础。同时约定:事务的gtsstart > gtsmin并且gtsmax没有提交或者gtsstart < gtsmax才能看到对应的事务。 两阶段提交(Two Phase Commit) 分布式事务执行时,由CN节点发起两阶段提交事务,并协调其它节点(参与者)执行事务,经过表决、执行两个阶段各参与者返回的状态,决定分布式事务需要提交或回滚。 两阶段提交被认为是一种一致性协议,用来保证分布式系统数据的一致性。绝大部分的关系型数据库都是采用两阶段提交协议来完成分布式事务处理。 两阶段提交事务在执行时分为两个阶段,第一阶段为表决阶段Prepare,第二阶段为执行阶段Commit,由协调者发起,并根据所有参与者返回的状态,判断是否需要执行下一阶段,Commit提交或回滚事务。 1. 表决阶段Prapare:所有参与者都将本事务能否成功的信息反馈发给协调者。 2. 执行阶段Commit:协调者根据所有参与者的反馈,通知所有参与者,步调一致地在所有分支上提交或者回滚。 两阶段提交机制的潜在问题: 1. 数据不一致问题:当部分参与者故障,各参与者在两阶段提交事务中的状态就会出现不一致的情况,如:部分节点commit,部分prepare,或部分commit,部分rollback,这都会导致该事务更新的数据在所有参与者中出现不一致。 2. 同步阻塞问题:两阶段提交过程中的一些步骤是同步阻塞的,没有超时机制,可能会有长时间阻塞的问题。同时,如果异常时,有prepare状态的两阶段事务残留,残留事务仍会持有锁,会阻塞后续会话对这些数据的访问和更新。 3. 协调节点单点故障问题:如果协调节点故障后短时间不能恢复,参与者的两阶段事务会一直残留,导致出现数据不一致、资源阻塞的问题。 TeleDB在内核处理机制,以及异常处理两个角度,对两阶段提交进行了优化,确保在两阶段事务异常时能自动恢复,不会出现上述问题。 内核处理机制优化 在两阶段事务执行过程中记录信息,用于异常时恢复残留的两阶段事务; 避免进入“Commit Prepared”的两阶段事务在所有参与节点被回滚。 分布式死锁检测模块:该模块对数据库状态进行实时监测,当发现存在长时间等待依赖时自动开启分布式死锁检测,经过节点间信息传递和算法分析可快速检测并解除死锁环。检测算法不影响系统查询效率,用户对死锁检测过程无感知。分布式死锁主要分为四个模块,分别为锁等待依赖关系的管理、线程模型模块、检测算法模块和监控与追踪模块。 锁等待依赖关系的管理:对分布式数据库中出现的长时间等待事务依赖对进行检测与上报。 线程模型模块:包含DDS专用线程工作模式和方法的设计、实现。 检测算法模块:分布式死锁检测的执行算法,根据上游节点发送的消息进行两阶段算法推演,再发送消息给下游节点。 监控与追踪模块:包含DDS依赖消息产生和传播的追踪日志、各节点依赖可视化、最近死锁记录保存。 其优点是内核原生支持、自动检测并解锁、分布式算法,需要传输的信息量少、网络资源消耗少、解锁速度快、无死锁误判、支持优先级解锁和抗丢包性强。 异常处理优化:提供两阶段事务的自动处理插件,在监测到两阶段事务残留时,通过访问两阶段事务执行过程中记录的信息,来判断各个参与节点的状态,根据状态参照对应规则,对残留事务进行清理,恢复各节点数据到全局一致。 PREPARED状态 COMMIT状态 ROLLBACK状态 异常阶段及原因 动作 有 有 无 commit阶段异常参与节点故障 COMMIT剩余事务 有 无 有 prepare阶段异常参与节点宕机 ROLLBACK剩余事务 有 无 无 prepare阶段异常发起节点宕机 ROLLBACK剩余事务
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式事务全局一致性
      • 管理实例标签
        本章节主要介绍管理分布式消息服务RabbitMQ实例标签。 标签是RabbitMQ实例的标识,为RabbitMQ实例添加标签,方便您识别和管理拥有的RabbitMQ实例资源。 您可以在创建RabbitMQ实例时添加标签,也可以在RabbitMQ实例创建完成后,在“标签”页面添加标签,最多可以给实例添加20个标签。另外,您还可以进行修改和删除标签。 标签共由两部分组成:“标签键”和“标签值”,其中,“标签键”和“标签值”的命名规则如下表所示。 表1 标签命名规则 参数名称 规则 :::: 标签键 不能为空。 对于同一个实例,Key值唯一。 长度为1~128个字符(中文也可以输入128个字符)。 由任意语种字母、数字、空格和字符组成,字符仅支持 . : + @ 首尾字符不能为空格。 标签值 长度为0~255个字符(中文也可以输入128个字符)。 由任意语种字母、数字、空格和字符组成,字符仅支持 . : + @ 首尾字符不能为空格。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击待设置标签的实例名称,进入实例详情页面。 步骤 5 单击“标签”页签,进入标签管理页面,页面显示该实例的标签列表。 步骤 6 您可以根据实际需要,执行以下操作: 添加标签 单击“创建/删除标签”,弹出“创建/删除标签”对话框。 在“标签键”和“标签值”中,输入标签的键/值,单击“添加”。如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键/值,单击“添加”。 单击“确定”,成功为实例添加标签。 删除标签(可通过以下任意方法删除) 在待删除的标签所在行,单击“删除”,弹出“删除标签”对话框。单击“是”,完成标签的删除。 单击“创建/删除标签”,弹出“创建/删除标签”对话框。在待删除的标签后,单击,然后单击“确定”,完成标签的删除。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        管理实例标签
      • 卡券使用
        本节介绍产品使用卡券规则。 天翼云分布式消息服务RocketMQ产品卡券使用遵循天翼云统一规则。 ++优惠券使用++ ++代金券使用++ 卡券使用常见问题:卡券管理费用中心常见问题 天翼云。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        计费说明
        卡券使用
      • 备份恢复简介
        备份类型 备份内容 备份目录类型 DBService 备份DBService管理的组件(Loader、Hive、Spark、Oozie、Hue)的元数据。对于安装了多服务的集群,包含多个Hive和Spark服务实例的元数据。 l LocalDir l LocalHDFS l RemoteHDFS l NFS l CIFS l SFTP l OBS Kafka Kafka的元数据。 l LocalDir l LocalHDFS l RemoteHDFS l NFS l CIFS l OBS NameNode 备份HDFS元数据。添加多个NameService后,支持不同NameService的备份恢复功能且备份恢复操作与默认实例“hacluster”一致。 l LocalDir l RemoteHDFS l NFS l CIFS l SFTP l OBS Yarn 备份Yarn服务资源池相关信息。 l LocalDir l RemoteHDFS l NFS l CIFS l SFTP l OBS HBase HBase系统表的tableinfo文件和数据文件。 l LocalDir l RemoteHDFS l NFS l CIFS l SFTP l OBS
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份恢复简介
      • 信息的获取
        本文为您介绍分布式消息服务MQTT的API参考如何调用API。 登录云网门户,在“控制台”>“个人中心”>“ 第三方账号绑定 ”,通过创建或者查看获取ak,sk。
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        如何调用API
        信息的获取
      • 支持滚动重启
        使用限制 请在低业务负载时间段进行滚动重启操作。 −例如:在滚动重启kafka服务时候, 如果kafka服务业务吞吐量很高(100M/s以上的情况下),会出现kafka服务滚动重启失败的情况。 −例如:在滚动重启HBase服务时候,如果原生界面上每个RegionServer上每秒的请求数超过1W,需要增大handle数来预防重启过程中负载过大导致的RegionServer重启失败。 重启前需要观察当前hbase的负载请求数(原生界面上每个rs的请求数如果超过1W,需要增大handle数来预防到时候负载不过来) 在集群Core节点个数小于6个的情况下,可能会出现业务短时间受影响的情况。 请优先使用滚动重启操作来重启实例或服务,并勾选“仅重启配置过期的实例”。 滚动重启服务 1.选择“集群列表 > 现有集群”,单击集群名称进入集群详情页面。 2.单击“组件管理”,选择需要滚动重启的服务,进入服务页面。 3.在“服务状态”页签单击“更多”,选择“滚动重启服务”。 4.弹出“滚动重启服务”页面,勾选“仅重启配置过期的实例”,单击确定,开始滚动重启服务。 5.滚动重启任务完成后,单击“完成”。 滚动重启实例 1.选择“集群列表 > 现有集群”,单击集群名称进入集群详情页面。 2.单击“组件管理”,选择需要滚动重启的服务,进入服务页面。 3.在“实例”页签,勾选要重启的实例,单击“更多”,选择“滚动重启实例”。 4.弹出“滚动重启实例”页面,勾选“仅重启配置过期的实例”,单击确定,开始滚动重启实例。 5.滚动重启任务完成后,单击“完成”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        组件管理
        支持滚动重启
      • 使用Flume客户端
        client.sources staticlogsource client.channels staticlogchannel client.sinks kafkasink LOGTOHDFSONLINE1 client.sources.staticlogsource.type spooldir client.sources.staticlogsource.spoolDir 监控目录 client.sources.staticlogsource.fileSuffix .COMPLETED client.sources.staticlogsource.ignorePattern ^$ client.sources.staticlogsource.trackerDir 传输过程中元数据存储路径 client.sources.staticlogsource.maxBlobLength 16384 client.sources.staticlogsource.batchSize 51200 client.sources.staticlogsource.inputCharset UTF8 client.sources.staticlogsource.deserializer LINE client.sources.staticlogsource.selector.type replicating client.sources.staticlogsource.fileHeaderKey file client.sources.staticlogsource.fileHeader false client.sources.staticlogsource.basenameHeader true client.sources.staticlogsource.basenameHeaderKey basename client.sources.staticlogsource.deletePolicy never client.channels.staticlogchannel.type file client.channels.staticlogchannel.dataDirs 数据缓存路径,设置多个路径可提升性能,中间用逗号分开 client.channels.staticlogchannel.checkpointDir 检查点存放路径 client.channels.staticlogchannel.maxFileSize 2146435071 client.channels.staticlogchannel.capacity 1000000 client.channels.staticlogchannel.transactionCapacity 612000 client.channels.staticlogchannel.minimumRequiredSpace 524288000 client.sinks.kafkasink.type org.apache.flume.sink.kafka.KafkaSink client.sinks.kafkasink.kafka.topic 数据写入的topic ,如flumetest client.sinks.kafkasink.kafka.bootstrap.servers XXX . XXX . XXX . XXX :kafka 端口号 , XXX . XXX . XXX . XXX :kafka 端口号 , XXX . XXX . XXX . XXX :kafka端口号 client.sinks.kafkasink.flumeBatchSize 1000 client.sinks.kafkasink.kafka.producer.type sync client.sinks.kafkasink.kafka.security.protocol SASLPLAINTEXT client.sinks.kafkasink.kafka.kerberos.domain.name Kafka Domain名称,安全集群必填,如hadoop.xxx.1com client.sinks.kafkasink.requiredAcks 0 client.sources.staticlogsource.channels staticlogchannel client.sinks.kafkasink.channel staticlogchannel 说明 client.sinks.kafkasink.kafka.topic:数据写入的topic。若kafka中该topic不存在,默认情况下会自动创建该topic。 client.sinks.kafkasink.kafka.bootstrap.servers:Kafkabrokers列表,多个用英文逗号分隔。默认情况下,安全集群端口21007,普通集群对应端口9092。 client.sinks.kafkasink.kafka.security.protocol:安全集群为SASLPLAINTEXT,普通集群为PLAINTEXT。 client.sinks.kafkasink.kafka.kerberos.domain.name: 普通集群无需配置此参数。安全集群对应此参数的值为Kafka集群中“kerberos.domain.name”对应的值。 具体可到Broker实例所在节点上查看${BIGDATAHOME}/MRSCurrent/1 X Broker/etc/server.properties。 其中X为随机生成的数字,请根据实际情况修改。同时文件需要以Flume客户端安装用户身份保存,例如root用户。 具体可到Broker实例所在节点上查看“${BIGDATAHOME}/FusionInsightCurrent/1XBroker/etc/server.properties”。 9. 参数配置并保存后,Flume客户端将自动加载“properties.properties”中配置的内容。当spoolDir生成新的日志文件,文件内容将发送到Kafka生产者,并支持Kafka消费者消费。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Flume客户端
      • 查看实例(1)
        本章节介绍了如何查看分布式消息服务RocketMQ实例。 操作场景 本节介绍如何在分布式消息服务RocketMQ控制台查看RocketMQ实例的详细信息。例如,连接RocketMQ实例时,需要获取的连接IP地址和端口号。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. RocketMQ实例支持通过筛选来查询对应的RocketMQ实例。当前支持的筛选条件为“状态”、“名称”、“连接地址”和“ID”。RocketMQ实例状态请参见表1。 表1 RocketMQ实例状态说明 状态 说明 创建中 创建RocketMQ实例后,在RocketMQ实例状态进入运行中之前的状态。 运行中 RocketMQ实例正常运行状态。在这个状态的实例可以运行您的业务。 故障 RocketMQ实例处于故障状态。 启动中 实例从已冻结到运行中的中间状态。 重启中 RocketMQ实例正在进行重启操作。 变更中 RocketMQ实例正在进行公网访问变更或规格变更操作。 变更失败 RocketMQ实例处于公网访问变更失败或规格变更失败的状态。 已冻结 实例处于已冻结状态。 冻结中 实例从运行中到已冻结的中间状态。 升级中 RocketMQ实例正在进行升级操作。 回滚中 RocketMQ实例正在进行回滚操作。 3. 单击RocketMQ实例的名称,进入该RocketMQ实例的基本信息页面,查看RocketMQ实例的详细信息。 表2为连接实例的相关参数,其他参数,请查看页面显示 表2 实例参数 参数 说明 元数据连接地址 未开启公网访问时,实例元数据管理节点的地址,大部分场景下客户端只需要配置此地址即可。 业务连接地址 未开启公网访问时,实例业务处理节点的地址,当需要对单一业务节点进行操作时,可以使用其中某一地址。 公网访问 公网访问状态。单击“公网访问”后的,开启/关闭公网访问。 元数据公网连接地址 仅开启公网访问后可见。开启公网访问后,实例元数据管理节点的地址,大部分场景下客户端只需要配置此地址即可。 业务公网连接地址 仅开启公网访问后可见。开启公网访问后,实例业务处理节点的地址。 SSL 实例的SSL状态。 ACL访问控制 实例的ACL访问状态。单击“ACL访问控制”后的,开启ACL访问。 说明:仅2021年8月21号后购买的实例,支持设置此参数。
        来自:
      • 跨源认证概述
        本章节主要介绍跨源认证概述。 什么是跨源认证? 跨源分析场景中,如果在作业中直接配置认证信息会触发密码泄露的风险,因此推荐您使用“数据加密服务DEW”或“DLI提供的跨源认证方式”来存储数据源的认证信息。 数据加密服务(Data Encryption Workshop, DEW)是一个综合的云上数据加密服务,为您解决数据安全、密钥安全、密钥管理复杂等问题。推荐使用数据加密服务DEW来存储数据源的认证信息。 跨源认证用于管理访问指定数据源的认证信息。配置跨源认证后,无需在作业中重复配置数据源认证信息,提高数据源认证的安全性,便于DLI安全访问数据源。 本节操作为您介绍DLI提供的跨源认证的使用方法。 约束与限制 仅Spark SQL、和Flink OpenSource SQL 1.12版本的作业支持使用跨源认证。 DLI支持四种类型的跨源认证,不同的数据源按需选择相应的认证类型。 −CSS类型跨源认证:适用于“6.5.4”及以上版本的CSS集群且集群已开启安全模式。 −Kerberos类型的跨源认证:适用于开启Kerberos认证的MRS安全集群。 −KafkaSSL类型的跨源认证:适用于开启SSL的Kafka。 −Password类型的跨源认证:适用于DWS、RDS、DDS、DCS数据源。。 跨源认证类型 DLI支持四种类型的跨源认证,不同的数据源按需选择相应的认证类型。 CSS类型跨源认证:适用于“6.5.4”及以上版本的CSS集群且集群已开启安全模式。配置时需指定集群的用户名、密码、认证证书,通过跨源认证将以上信息存储到DLI服务中,便于DLI安全访问CSS数据源。详细操作请参创建CSS类型跨源认证。 Kerberos类型的跨源认证:适用于开启Kerberos认证的MRS安全集群。配置时需指定MRS集群认证凭证,包括“krb5.conf”和“user.keytab”文件。详细操作请参考创建Kerberos跨源认证。 KafkaSSL类型的跨源认证:适用于开启SSL的Kafka,配置时需指定KafkaTruststore路径和密码。详细操作请参考创建KafkaSSL类型跨源认证。 Password类型的跨源认证:适用于DWS、RDS、DDS、DCS数据源,配置时将数据源的密码信息存储到DLI。详细操作请参考创建Password类型跨源认证。
        来自:
        帮助文档
        数据湖探索
        用户指南
        跨源认证
        跨源认证概述
      • 支持滚动重启
        本章节主要介绍如何进行滚动重启。 在修改了大数据组件的配置项后,需要重启对应的服务来使得配置生效,使用普通重启方式会并发重启所有服务或实例,可能引起业务断服。为了确保服务重启过程中,尽量减少或者不影响业务运行,可以通过滚动重启来按批次重启服务或实例(对于有主备状态的实例,会先重启备实例,再重启主实例)。滚动重启方式的重启时间比普通重启时间久。 使用限制 请在低业务负载时间段进行滚动重启操作。例如:在滚动重启Kafka服务时候, 如果Kafka服务业务吞吐量很高(100M/s以上的情况下),会出现Kafka服务滚动重启失败的情况。例如:在滚动重启HBase服务时候,如果原生界面上每个RegionServer上每秒的请求数超过1W,需要增大handle数来预防重启过程中负载过大导致的RegionServer重启失败。 重启前需要观察当前HBase的负载请求数(原生界面上每个rs的请求数如果超过1W,需要增大handle数来预防到时候负载不过来)。 在集群Core节点个数小于6个的情况下,可能会出现业务短时间受影响的情况。 滚动重启集群服务 1. 在控制台集群详情页面,单击“前往翼MR Manager”。 2. 进入到翼MR Manager操作界面,单击“集群服务”菜单。 3. 选择指定集群服务,单击集群服务ICON进入到集群服务的详情页面。 4. 单击“运维操作”,单击“滚动重启集群服务”。 5. 弹出确认滚动重启集群服务操作弹框,单击确定。 6. 进入到滚动重启集群服务操作页面,依次点击“下一步”,滚动重启任务完成后,单击“完成”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        组件管理
        支持滚动重启
      • 云审计服务支持的RabbitMQ操作列表
        本章节主要介绍云审计服务支持的分布式消息服务RabbitMQ操作列表。 通过云审计服务,您可以记录与分布式消息服务RabbitMQ相关的操作事件,便于日后的查询、审计和回溯。 表1 云审计服务支持的RabbitMQ操作列表 操作名称 资源类型 事件名称 删除后台任务成功 rabbitmq deleteDMSBackendJobSuccess 删除后台任务失败 rabbitmq deleteDMSBackendJobFailure 创建DMS实例订单成功 rabbitmq createDMSInstanceOrderSuccess 创建DMS实例订单失败 rabbitmq createDMSInstanceOrderFailure 修改DMS实例订单成功 rabbitmq modifyDMSInstanceOrderSuccess 修改DMS实例订单失败 rabbitmq modifyDMSInstanceOrderFailure 扩容实例成功 rabbitmq extendDMSInstanceSuccess 扩容实例失败 rabbitmq extendDMSInstanceFailure 重置DMS实例密码成功 rabbitmq resetDMSInstancePasswordSuccess 重置DMS实例密码失败 rabbitmq resetDMSInstancePasswordFailure 删除创建失败的DMS实例成功 rabbitmq deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败 rabbitmq deleteDMSCreateFailureInstancesFailure 重启DMS实例成功 rabbitmq restartDMSInstanceSuccess 重启DMS实例失败 rabbitmq restartDMSInstanceFailure 批量删除DMS实例成功 rabbitmq batchDeleteDMSInstanceSuccess 批量删除DMS实例失败 rabbitmq batchDeleteDMSInstanceFailure 批量重启DMS实例成功 rabbitmq batchRestartDMSInstanceSuccess 批量重启DMS实例失败 rabbitmq batchRestartDMSInstanceFailure 修改DMS实例信息成功 rabbitmq modifyDMSInstanceInfoSuccess 修改DMS实例信息失败 rabbitmq modifyDMSInstanceInfoFailure 批量删除DMS实例任务 rabbitmq batchDeleteDMSInstanceTask 解冻DMS实例任务成功 rabbitmq unfreezeDMSInstanceTaskSuccess 解冻DMS实例任务失败 rabbitmq unfreezeDMSInstanceTaskFailure 冻结DMS实例任务成功 rabbitmq freezeDMSInstanceTaskSuccess 冻结DMS实例任务失败 rabbitmq freezeDMSInstanceTaskFailure 删除DMS实例任务成功 rabbitmq deleteDMSInstanceTaskSuccess 删除DMS实例任务失败 rabbitmq deleteDMSInstanceTaskFailure 创建DMS实例任务成功 rabbitmq createDMSInstanceTaskSuccess 创建DMS实例任务失败 rabbitmq createDMSInstanceTaskFailure 扩容DMS实例任务成功 rabbitmq extendDMSInstanceTaskSuccess 扩容DMS实例任务失败 rabbitmq extendDMSInstanceTaskFailure 重启DMS实例任务成功 rabbitmq restartDMSInstanceTaskSuccess 重启DMS实例任务失败 rabbitmq restartDMSInstanceTaskFailure 批量重启DMS实例任务成功 rabbitmq batchRestartDMSInstanceTaskSuccess 批量重启DMS实例任务失败 rabbitmq batchRestartDMSInstanceTaskFailure 修改DMS实例信息任务成功 rabbitmq modifyDMSInstanceInfoTaskSuccess 修改DMS实例信息任务失败 rabbitmq modifyDMSInstanceInfoTaskFailure
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的RabbitMQ操作列表
      • 【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
        尊敬的天翼云客户,分布式消息服务RabbitMQ自2025年12月27日起,订购和续订2年、3年选项默认不开放,调整为白名单特性。 调整时间 2025年12月27日 影响范围 所有区域 调整影响 新订购和续订的实例默认不开放2年、3年选项,您可以选择1年包年选项,如仍需要23年包周期选项,请联系技术支持开通后使用。 已购买2年、3年且还在服务期间的实例仍可继续正常使用不受影响。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        服务公告
        2025年
        【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
      • 【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
        尊敬的天翼云客户,分布式消息服务MQTT自2025年12月27日起,订购和续订2年、3年选项默认不开放,调整为白名单特性。 调整时间 2025年12月27日 影响范围 所有区域 调整影响 新订购和续订的实例默认不开放2年、3年选项,您可以选择1年包年选项,如仍需要23年包周期选项,请联系技术支持开通后使用。 已购买2年、3年且还在服务期间的实例仍可继续正常使用不受影响。
        来自:
        帮助文档
        分布式消息服务MQTT
        服务公告
        2025年
        【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
      • 计费模式概述
        本文主要介绍分布式消息服务RabbitMQ的计费模式概述。 分布式消息服务RabbitMQ提供包年/包月和按需计费两种计费模式,以满足不同场景下的用户需求。 包年/包月 :一种预付费模式,即先付费再使用,按照订单的购买周期进行结算。购买周期越长,享受的折扣越大。一般适用于业务需求量长期稳定的成熟业务。 按需计费 :一种后付费模式,即先使用再付费,按照RabbitMQ实例实际使用时长计费,秒级计费,按小时结算。按需计费模式允许您根据实际业务需求灵活地调整资源使用,无需提前预置资源,从而降低预置过多或不足的风险。一般适用于电商抢购等业务需求量瞬间大幅波动的场景。 表1 计费模式 计费模式 包年/包月 按需计费 付费方式 预付费 按照订单的购买周期结算 后付费 按照RabbitMQ实例实际使用时长计费 计费周期 按订单的购买周期计费 秒级计费,按小时结算 适用计费项 实例费用、存储空间费用 实例费用、存储空间费用 变更规格 支持变更实例规格 支持变更实例规格 使用场景 适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。对于长期使用者,推荐该方式 适用于资源需求波动的场景,可以随时开通,随时删除
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        计费说明
        计费模式
        计费模式概述
      • 设置RabbitMQ告警规则
        操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,查看监控数据。 在RabbitMQ实例名称后,单击“查看监控数据”。跳转到云监控页面,查看实例、节点和队列的监控数据,数据更新周期为1分钟。 单击RabbitMQ实例名称,进入实例详情页。在左侧导航栏单击“监控”,进入监控页面,查看实例、节点和队列的监控数据,数据更新周期为1分钟。 步骤 5 在实例监控指标页面中,找到需要创建告警的指标项,鼠标移动到指标区域,然后单击指标右上角的,进入“创建告警规则”页面。 步骤 6 在告警规则页面,设置告警信息。 创建告警规则操作,请查看《云监控服务用户指南》的创建告警规则和告警通知。 1. 设置告警名称和告警的描述。 2. 设置告警策略和告警级别。 例如,在进行指标监控时,如果连续3个周期,连接数原始值超过设置的值,则产生告警,如果未及时处理,则每一天发送一次告警通知。 3. 设置“发送通知”开关。当开启时,设置告警生效时间、产生告警时通知的对象以及触发的条件。 4. 单击“立即创建”,等待创建告警规则成功。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        监控
        设置RabbitMQ告警规则
      • 退服和入服务角色实例
        本章节主要介绍翼MapReduce服务退服和入服务角色实例。 操作场景 某个Core或Task节点出现问题时,可能导致整个集群状态显示为“异常”。MRS集群支持将数据存储在不同Core节点,用户可以在MRS Manager指定角色实例退服,使退服的角色实例不再提供服务。在排除故障后,可以将已退服的角色实例入服。 支持退服、入服的角色实例包括: HDFS的DataNode角色实例 Yarn的NodeManager角色实例 HBase的RegionServer角色实例 Kafka的Broker角色实例 限制: 当DataNode数量少于或等于HDFS的副本数时,不能执行退服操作。例如HDFS副本数为3时,则系统中少于4个DataNode,将无法执行退服,Manager在执行退服操作时会等待30分钟后报错并退出执行。 Kafka Broker数量少于或等于副本数时,不能执行退服。例如Kafka副本数为2时,则系统中少于3个节点,将无法执行退服,Manager执行退服操作时会失败并退出执行。 已经退服的角色实例,必须执行入服操作启动该实例,才能重新使用。 操作步骤 在MRS Manager,单击“服务管理”。 1.单击服务列表中相应服务。 2.单击“实例”页签。 3.勾选指定角色实例名称前的复选框。 4.选择“更多 > 退服”或“入服”执行相应的操作。 说明 实例退服操作未完成时在其他浏览器窗口重启集群中相应服务,可能导致MRS Manager提示停止退服,实例的“操作状态”显示为“已启动”。实际上后台已将该实例退服,请重新执行退服操作同步状态。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        对象管理
        退服和入服务角色实例
      • ACL策略管理
        ACL 策略指为用户自定义的一组权限规则,允许/拒绝用户通过 IP 或网段 生产/消费 Topic 资源。 创建ACL策略 (1)登录管理控制台,进入Kafka管理控制台。 (2)在实例列表页操作列,目标实例行单击“管理”>“用户管理”>“ACL策略管理”。 (3)单击“创建策略”进入配置 ACL 策略页面。 (4)输入规则名称,单击“添加规则”绑定策略对应的规则。 规则参数说明: 参数 说明 权限 ACL 策略的操作权限分为两类:允许和拒绝。 若只设置允许规则,则除允许的规则外的其他IP或网段都无法连接实例。 若只设置拒绝规则,则除拒绝的规则外的其他IP或网段需要设置了允许规则后才可以连接实例。 若同时设置允许规则和拒绝规则,则只有允许规则中的IP或网段可以连接实例,其他IP或网段都无法连接实例。 用户 选择需要设置权限的用户。 IP或网段 填写需要设置权限的 IP 或网段,用 ; 隔开,若 IP 为空,则默认为全部 IP 添加权限。 操作 选择策略生效的动作,即向 Topic 生产或消费消息。 自动应用后续所有新增topic 开启后,后续页面上创建的Topic会自动关联此规则,多个策略只允许一条策略开启。 (5)单击“确定”,完成 ACL 策略创建。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        ACL策略管理
      • 使用Kafka客户端
        本章节主要介绍使用Kafka的操作指导。 操作场景 用户可以在集群客户端完成Topic的创建、查询、删除等基本操作。 前提条件 已安装客户端,例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Kafka客户端 1. 安装客户端,具体请参考安装客户端章节。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端目录,例如: plaintext cd /opt/hadoopclient/Kafka/kafka/bin 4. 执行以下命令,配置环境变量。 plaintext source /opt/hadoopclient/bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 创建一个Topic。 plaintext sh kafkatopics.sh create topic 主题名称partitions 主题占用的分区数 replicationfactor 主题的备份个数 zookeeper ZooKeeper角色实例所在节点IP地址:clientPort/kafka 7. 执行以下命令,查询集群中的Topic信息。 plaintext sh kafkatopics.sh list zookeeper ZooKeeper角色实例所在节点IP地址:clientPort/kafka 8. 删除创建的Topic。 plaintext sh kafkatopics.sh delete topic 主题名称 zookeeper ZooKeeper角色实例所在节点IP地址:clientPort/kafka 输入 "y",回车。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Kafka客户端
      • 迁移元数据
        本章节介绍了如何迁移分布式消息服务RocketMQ实例的元数据。 操作场景 分布式消息服务RocketMQ支持通过控制台迁移其他厂商或自建RocketMQ实例的元数据到云上RocketMQ实例。 前提条件 已购买RocketMQ实例。 步骤一:获取其他厂商或自建RocketMQ实例的元数据 1. 进入RocketMQ实例的安装目录,执行以下命令,查询集群名称。 sh ./bin/mqadmin clusterList n {nameserver地址及端口号} 例如:“nameserver地址及端口号”为“192.168.0.65:8100”。 sh ./bin/mqadmin clusterList n 192.168.0.65:8100 2. 执行以下命令,导出元数据。 sh ./bin/mqadmin exportMetadata n {nameserver地址及端口号} c {RocketMQ集群名称} f {导出的元数据文件的存放路径} 例如:“nameserver地址及端口号”为“192.168.0.65:8100”,“RocketMQ集群名称”为“DmsCluster”,“导出的元数据文件的存放路径”为“/tmp/rocketmq/export”。 sh ./bin/mqadmin exportMetadata n 192.168.0.65:8100 c DmsCluster f /tmp/rocketmq/export 步骤二 :在控制台迁移元数据 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,选择“元数据迁移”,进入迁移任务列表页面。 4. 单击“创建迁移任务”,弹出“创建迁移任务”对话框。 5. 参考表1,设置迁移任务的参数。 表1 迁移任务参数说明 参数 说明 任务名称 您可以自定义迁移任务的名称,用于区分不同的迁移任务。 是否同名覆盖 如果开启同名覆盖,会对已有的同名元数据的配置进行修改。例如:原实例Topic01的读队列个数为3,云上实例Topic01的读队列个数为2,开启同名覆盖后,云上实例Topic01的读队列个数变为3。如果不开启同名覆盖,同名元数据的迁移将失败。例如:原实例的Topic包含Topic01和Topic02,云上实例的Topic包含Topic01和Topic03,不开启同名覆盖,原实例Topic01的迁移将失败。 元数据 上传其他厂商或自建RocketMQ实例的元数据。 6. 单击“确定”。 迁移完成后,在迁移任务列表页面查看“任务状态”。 当“任务状态”为“迁移完成”,表示所有元数据都已成功迁移。 当“任务状态”为“迁移失败”,表示元数据中部分或全部元数据迁移失败。单击迁移任务名称,进入迁移任务详情页,在“迁移结果”中查看迁移失败的Topic/消费组名称,以及失败原因。 图 迁移结果
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        迁移元数据
      • 虚拟主机用户权限管理
        介绍分布式消息服务RabbitMQ虚拟主机权限管理内容。 场景描述 在RabbitMQ中,虚拟主机(Virtual Hosts, vhosts)是一种逻辑隔离机制,允许单个 RabbitMQ 实例划分为多个独立的环境。每个虚拟主机都有自己的交换机、队列、绑定和权限设置。虚拟主机的用户权限管理,支持对每个用户配置三种权限,分别是配置权限、写权限、读权限,用户在未配置这三种权限之前,无法访问对应的虚拟主机。三个权限的详情如下: 配置权限:允许用户创建、修改或删除交换器(Exchange)、队列(Queue)和绑定关系。 写权限:允许用户向交换器发布消息。 读权限:允许用户消费队列中的消息或获取队列状态。 权限配置 在RabbitMQ中,虚拟主机的用户权限配置,采用的是正则表达式匹配方式, 只有满足正则表达式的资源才有权限。比如配置写权限为:".",表示该用户可以向虚拟主机下全部的交换器发布消息。配置写权限为:"^$”,表示该用户不允许向任何交换器发布消息。配置写权限为:"^exchange.",表示该用户可以向虚拟主机下以"exchange"开头的交换器发布消息。 最佳实践 1. 登录管理控制台。 2. 进入RabbitMQ管理控制台。 3. 在实例列表页在操作列,目标实例行点击“管理”。 4. 进入具体的实例管理页面,点击Vhost管理,在vhost列表页,针对指定的vhost,点击vhost进入具体的权限管理页: 5. 在具体的权限管理页,点击新建,选择指定用户,配置权限为"."、"."、".",则该用户拥有对虚拟主机下全部资源的配置权限、写权限和读权限: 6. 点击权限列表的操作列的“修改”或“删除”按钮,可以修改或删除对应用户的权限:
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        虚拟主机管理
        虚拟主机用户权限管理
      • 产品定义
        事件总线EventBridge是天翼云提供的一款Serverless事件总线服务,支持事件在总线中路由、过滤与转换,支持天翼云服务与自定义应用以标准化、中心化的方式接入,兼容CloudEvents 1.0协议,助力分布式事件驱动架构的快速构建。 核心概念 事件总线EventBridge涉及的核心概念如下: 事件:事件源状态变化的数据记录。 事件源:事件的来源,负责生产事件。 事件目标:事件的处理终端,负责消费事件。 事件总线:事件的中转站,负责事件的中间转储。 事件规则:用于匹配特定类型的事件。当事件成功匹配时,事件会被路由到与事件规则关联的事件目标。 事件总线总体架构 事件总线EventBridge的总体架构如下图所示: 事件源:事件的来源,将天翼云服务、自定义应用、SaaS应用等应用程序产生的事件消息投递至事件总线。 事件总线:存储接收到的事件消息,并根据事件规则将事件消息路由到事件目标。 事件目标:消费事件消息。 应用场景 事件总线EventBridge的典型应用场景如下: 构建事件驱动型架构:借助事件总线EventBridge,您无需了解事件源,就可以直接筛选并发布事件。 函数计算触发器:事件总线提供了统一的事件源接入方式,为函数计算服务提供SaaS应用事件或云服务事件的标准化接入。 应用事件流转:应用产生的事件可以通过事件总线触发其它相关联的应用,从而实现事件在应用与应用之间的流转。
        来自:
        帮助文档
        事件总线
        产品简介
        产品定义
      • 与其他云服务的关系
        本文主要介绍分布式消息服务RabbitMQ与其他云服务的关系。 弹性云主机(Elastic Cloud Server) 弹性云主机是由CPU、内存、操作系统、云硬盘组成的基础的计算组件。RabbitMQ实例运行在弹性云主机上,一个代理对应一台弹性云主机。 云硬盘(Elastic Volume Service) 云硬盘为弹性云主机提供块存储服务,RabbitMQ的所有数据(如消息和日志等)都保存在云硬盘中。 云审计(Cloud Trace Service) 云审计为您提供弹性云主机资源的操作记录,记录内容包括您从云服务平台管理控制台或者开放API发起的云服务资源操作请求以及每次请求的结果,供您查询、审计和回溯使用。 虚拟私有云 RabbitMQ实例运行于虚拟私有云,需要使用虚拟私有云创建的IP和带宽。通过虚拟私有云安全组的功能可以增强访问RabbitMQ实例的安全性。 云监控(Cloud Eye) 云监控是一个开放性的监控平台,提供资源的实时监控、告警、通知等服务。 说明 RabbitMQ实例向Cloud Eye上报监控数据的更新周期为1分钟。 弹性IP(Elastic IP) 弹性IP提供独立的公网IP资源,包括公网IP地址与公网出口带宽服务。RabbitMQ实例绑定弹性公网IP后,可以通过公网访问RabbitMQ实例。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        与其他云服务的关系
      • 消息中心
        本节介绍如何查看防护容器的下线通知和删除服务通知。 消息中心页面提供防护容器的下线通知和删除服务通知,以便用户及时恢复防护容器。 查看消息 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“消息中心”,进入消息中心页面。 3. 支持查看“服务信息”和“删除服务”类消息。 标记已读 在消息中心页面,阅读消息后,可以勾选多条消息后,单击“标记已读”,在弹出的对话框中,可以选择“全部标记已读”或只对当前选择项标记已读,选择完成后,单击“确认”。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        消息中心
      • 【优惠】正式开放2年7折,3年5折包年折扣
        面向长期稳定客户,我们特别推出了更加优惠的包年订阅选项,旨在通过深度折扣,帮助客户显著降低资源单位成本,优化整体支出。 自2024年11月9日起订购和续订分布式消息服务RocketMQ产品更长包周期即可享受2年7折,3年5折优惠。 注意 本次包年优惠适用于新资费产品范围,具体支持资源池请参阅
        来自:
        帮助文档
        分布式消息服务RocketMQ
        服务公告
        2024年
        【优惠】正式开放2年7折,3年5折包年折扣
      • 购买类
        本节介绍了分布式消息服务RabbitMQ产品常见购买类问题。 到期后如何续费? 在集群列表中点击“续费”,进入购买时长页面,购买成功续费成功。 产品订购时可选资源池节点不一致? 已上线资源池节点的剩余容量达到一定比例后,为确保老客户权益,将不再面向新客户开放,产品订购时的可选资源节点范围以实际为准。 收费依据有哪些? 根据规格和磁盘容量收费。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        购买类
      • 1
      • ...
      • 19
      • 20
      • 21
      • 22
      • 23
      • ...
      • 530
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      训推服务

      模型推理服务

      应用托管

      科研助手

      一站式智算服务平台

      知识库问答

      推荐文档

      错误日志

      主机新手使用指南

      绑定和解绑弹性IP

      帮助中心

      手动同步

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号