云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务RabbitMQ_相关内容
      • 应用场景
        本节主要介绍分布式消息服务Kafka常用的应用场景 分布式消息服务Kafka主要适用于以下几种场景: 日志收集 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦。 支持实时在线分析系统和类似于 Hadoop 的离线分析系统。 Kafka本身的性能是非常高效的,同时Kafka的特性决定它非常适合作为"日志收集中心",这是因为Kafka在采集日志的时候业务是无感知的,其能够兼容自己的上游,能够直接地通过配置加密消息。当日志数据发送到Kafka集群里面,其实对于业务而言是完全无侵入的。同时其在下游又能够直接地对接Hadoop/ODPS等离线仓库存储和Strom/Spark等实现实时在线分析。在这样的情况之下,使用Kafka,只需要用户去关注整个流程里面的业务逻辑,而无需做更多的开发就能够实现统计、分析以及报表。 流计算处理 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦。 通过支持流计算引擎,可对接开源 Storm/Samza/Spark 流计算引擎。 Kafka能够做到流计算处理,比如股市走向分析、气象数据测控、网站用户行为分析等领域,由于在这些领域中数据产生快、实时性强、数据量大,所以很难统一采集并入库存储后再做处理,这便导致传统的数据处理架构不能满足需求。而Kafka Stream以及Storm/Samza/Spark等流计算引擎的出现,可以根据业务需求对数据进行计算分析,最终把结果保存或者分发给需要的组件。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        应用场景
      • 查看实例后台任务
        本文主要介绍查看实例后台任务。 . 对实例的一些操作,如修改公网访问开关、修改容量阈值策略等,会启动一个后台任务,您可以在后台任务页,查看该操作的状态等信息,同时可通过删除操作,清理任务信息。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例的“基本信息”页签。 步骤 5 单击“后台任务管理”页签,进入后台任务管理页面。 界面显示任务列表。 步骤 6 在右上角单击系统默认时间,选择开始时间和结束时间,单击“确定”,界面显示相应时间段内启动的任务。 在后台任务管理页面,您还可以执行以下操作: 单击,刷新任务状态。 单击“删除”,弹出“删除任务记录”对话框,单击“是”,清理任务信息。 说明 您只能在任务已经执行完成,即任务状态为成功或者失败时,才能执行删除操作。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        查看实例后台任务
      • 卡券使用
        本节介绍产品使用卡券规则。 天翼云分布式消息服务RocketMQ产品卡券使用遵循天翼云统一规则。 ++优惠券使用++ ++代金券使用++ 卡券使用常见问题:卡券管理费用中心常见问题 天翼云。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        计费说明
        卡券使用
      • 分布式事务全局一致性
        全局时钟(Global Timestamp) 全局时钟在分布式数据库中的作用是通过提供统一的时间参考,确保系统内各组件协同工作时的时间同步,从而保障数据的一致性和系统的正确运行。如下为全局时钟的架构和分布式并发记录结构。 由GTM提供全局唯一的事务id和全局事务快照。当事务执行时,会话携带全局事务id,各节点通过全局事务id来判断数据的可见性。 全局时钟通过分布式并发记录来保障各组件协同工作时的时间同步。分布式并发控制核心点如下: 1. 逻辑时钟从零开始内部单向递增且唯一,由GTM维护,定时和服务器硬件计数器对齐,从而保证时钟源稳定。 2. 多个GTM节点构成集群,主节点对外提供服务;主备之间通过日志同步时间戳状态,保证GTS核心服务可靠性。 3. 单台物理机每秒能够处理1200万QPS,几乎满足所有业务场景。 4. 段页式存储的MVCC是整个并发控制的基础。同时约定:事务的gtsstart > gtsmin并且gtsmax没有提交或者gtsstart < gtsmax才能看到对应的事务。 两阶段提交(Two Phase Commit) 分布式事务执行时,由CN节点发起两阶段提交事务,并协调其它节点(参与者)执行事务,经过表决、执行两个阶段各参与者返回的状态,决定分布式事务需要提交或回滚。 两阶段提交被认为是一种一致性协议,用来保证分布式系统数据的一致性。绝大部分的关系型数据库都是采用两阶段提交协议来完成分布式事务处理。 两阶段提交事务在执行时分为两个阶段,第一阶段为表决阶段Prepare,第二阶段为执行阶段Commit,由协调者发起,并根据所有参与者返回的状态,判断是否需要执行下一阶段,Commit提交或回滚事务。 1. 表决阶段Prapare:所有参与者都将本事务能否成功的信息反馈发给协调者。 2. 执行阶段Commit:协调者根据所有参与者的反馈,通知所有参与者,步调一致地在所有分支上提交或者回滚。 两阶段提交机制的潜在问题: 1. 数据不一致问题:当部分参与者故障,各参与者在两阶段提交事务中的状态就会出现不一致的情况,如:部分节点commit,部分prepare,或部分commit,部分rollback,这都会导致该事务更新的数据在所有参与者中出现不一致。 2. 同步阻塞问题:两阶段提交过程中的一些步骤是同步阻塞的,没有超时机制,可能会有长时间阻塞的问题。同时,如果异常时,有prepare状态的两阶段事务残留,残留事务仍会持有锁,会阻塞后续会话对这些数据的访问和更新。 3. 协调节点单点故障问题:如果协调节点故障后短时间不能恢复,参与者的两阶段事务会一直残留,导致出现数据不一致、资源阻塞的问题。 TeleDB在内核处理机制,以及异常处理两个角度,对两阶段提交进行了优化,确保在两阶段事务异常时能自动恢复,不会出现上述问题。 内核处理机制优化 在两阶段事务执行过程中记录信息,用于异常时恢复残留的两阶段事务; 避免进入“Commit Prepared”的两阶段事务在所有参与节点被回滚。 分布式死锁检测模块:该模块对数据库状态进行实时监测,当发现存在长时间等待依赖时自动开启分布式死锁检测,经过节点间信息传递和算法分析可快速检测并解除死锁环。检测算法不影响系统查询效率,用户对死锁检测过程无感知。分布式死锁主要分为四个模块,分别为锁等待依赖关系的管理、线程模型模块、检测算法模块和监控与追踪模块。 锁等待依赖关系的管理:对分布式数据库中出现的长时间等待事务依赖对进行检测与上报。 线程模型模块:包含DDS专用线程工作模式和方法的设计、实现。 检测算法模块:分布式死锁检测的执行算法,根据上游节点发送的消息进行两阶段算法推演,再发送消息给下游节点。 监控与追踪模块:包含DDS依赖消息产生和传播的追踪日志、各节点依赖可视化、最近死锁记录保存。 其优点是内核原生支持、自动检测并解锁、分布式算法,需要传输的信息量少、网络资源消耗少、解锁速度快、无死锁误判、支持优先级解锁和抗丢包性强。 异常处理优化:提供两阶段事务的自动处理插件,在监测到两阶段事务残留时,通过访问两阶段事务执行过程中记录的信息,来判断各个参与节点的状态,根据状态参照对应规则,对残留事务进行清理,恢复各节点数据到全局一致。 PREPARED状态 COMMIT状态 ROLLBACK状态 异常阶段及原因 动作 有 有 无 commit阶段异常参与节点故障 COMMIT剩余事务 有 无 有 prepare阶段异常参与节点宕机 ROLLBACK剩余事务 有 无 无 prepare阶段异常发起节点宕机 ROLLBACK剩余事务
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式事务全局一致性
      • 应用场景
        本章节介绍故障演练服务的应用场景。 故障演练服务适用于多种复杂的业务和技术场景,旨在帮助用户从被动响应故障转变为主动发现和规避风险,全面提升系统的稳定性和韧性。 1. 验证高可用(HA)与容灾(DR)预案 这是故障演练的核心应用场景之一。通过模拟关键组件的失效,可以验证系统的自动切换、故障转移和恢复能力是否符合预期。 场景示例: 数据层 :通过模拟分布式缓存服务Redis版的主备切换、节点宕机等场景,验证组件能否无感切换,量化对上层业务的影响,评估高可用架构的实际效果。 中间件 :通过模拟分布式消息服务Kafka的Broker节点宕机等场景,检验消息中间件的高可用特性,评估业务数据的可靠性和业务消息生产/消费的合理性。 应用层 :通过模拟承载关键业务的云主机宕机等场景,验证应用健康检查与流量转移的及时性和有效性,评估业务连续性是否符合架构设计要求。 2. 评估系统性能水位 在业务大促、秒杀等高并发场景来临前,通过主动对系统资源施加压力,可以提前发现性能瓶颈,为容量规划和扩容决策提供数据支持。 场景示例: 计算资源压测 :通过模拟云主机CPU/内存高负载场景,监测应用服务的响应延迟与错误率变化,评估应用系统在资源瓶颈下的稳定性表现。 存储性能压测 :通过模拟云主机磁盘I/O高负载场景,监测数据库事务处理、日志写入等关键操作在压力下的吞吐量、延迟及错误率表现,评估存储系统的性能瓶颈。
        来自:
        帮助文档
        应用高可用
        产品简介
        故障演练服务
        应用场景
      • 应用场景(1)
        本章节介绍故障演练服务的应用场景。 故障演练服务适用于多种复杂的业务和技术场景,旨在帮助用户从被动响应故障转变为主动发现和规避风险,全面提升系统的稳定性和韧性。 1. 验证高可用(HA)与容灾(DR)预案 这是故障演练的核心应用场景之一。通过模拟关键组件的失效,可以验证系统的自动切换、故障转移和恢复能力是否符合预期。 场景示例: 数据层 :通过模拟分布式缓存服务Redis版的主备切换、节点宕机等场景,验证组件能否无感切换,量化对上层业务的影响,评估高可用架构的实际效果。 中间件 :通过模拟分布式消息服务Kafka的Broker节点宕机等场景,检验消息中间件的高可用特性,评估业务数据的可靠性和业务消息生产/消费的合理性。 应用层 :通过模拟承载关键业务的云主机宕机等场景,验证应用健康检查与流量转移的及时性和有效性,评估业务连续性是否符合架构设计要求。 2. 评估系统性能水位 在业务大促、秒杀等高并发场景来临前,通过主动对系统资源施加压力,可以提前发现性能瓶颈,为容量规划和扩容决策提供数据支持。 场景示例: 计算资源压测 :通过模拟云主机CPU/内存高负载场景,监测应用服务的响应延迟与错误率变化,评估应用系统在资源瓶颈下的稳定性表现。 存储性能压测 :通过模拟云主机磁盘I/O高负载场景,监测数据库事务处理、日志写入等关键操作在压力下的吞吐量、延迟及错误率表现,评估存储系统的性能瓶颈。
        来自:
      • 创建的Kafka实例是集群模式么?
        本节介绍分布式消息服务Kafka集群模式 是的,Kafka实例通常是以集群模式创建的。Kafka集群由多个Kafka节点组成,每个节点负责存储和处理消息。集群模式可以提供高可用性、容错性和扩展性。 Kafka集群中的每个节点都可以承担多个分区的领导者或副本角色,从而实现数据的冗余和故障恢复。通过复制机制,Kafka可以提供高可用性和容错性,即使在节点故障的情况下也能保证数据的可靠性和可用性。 注意 Kafka集群的规模和配置取决于应用的需求和可用的资源。可以根据实际情况来决定集群中节点的数量、分区的数量以及数据的复制策略,以满足性能、可用性和扩展性的要求。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        实例问题
        创建的Kafka实例是集群模式么?
      • 关闭Smart Connect
        本节介绍如何关闭Smart Connect。 如果不再使用Smart Connect相关功能,您可以关闭Smart Connect,释放资源。 关闭Smart Connect不会影响业务。 约束与限制 关闭Smart Connect后,实例会停止收取用于Smart Connect的代理费用,并自动删除用于Smart Connect的代理。 关闭Smart Connect后,再重新开启Smart Connect,已删除的Smart Connect任务无法找回,需要重新创建。 前提条件 已创建Kafka实例,且实例状态为“运行中”。 关闭Smart Connect前,请先删除所有的Smart Connect任务,否则无法关闭Smart Connect。此操作是为了防止关闭Smart Connect导致正在运行的Smart Connect任务丢失。 关闭Smart Connect 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、通过以下任意一种方法,关闭Smart Connect。 在待关闭Smart Connect的Kafka实例所在行,单击“更多 > 关闭Smart Connect”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 关闭Smart Connect”。 5、单击,将Smart Connect设置为关闭,单击“下一步”。 6、确认“Smart Connect”为关闭状态,单击“提交”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        关闭Smart Connect
      • 修改Topic
        介绍分布式消息服务Kafka修改主题功能的操作内容。 场景描述 Kafka修改主题的场景描述如下: 数据分区调整:当数据负载不均衡或者需要重新分配数据分区时,可以通过修改主题来调整数据分区的数量和分布。管理员可以根据实际情况修改主题的配置,重新分配分区,以实现更好的负载均衡和性能优化。 副本分配策略调整:Kafka的主题可以配置多个副本以实现数据冗余和高可用性。当需要调整副本的分配策略时,可以修改主题的配置,更改副本的分布方式,以满足不同的需求,如提高数据的可靠性或者减少网络传输的开销。 数据保留策略变更:Kafka支持根据时间或者大小等条件来设置数据的保留策略。当需要修改主题的数据保留策略时,可以修改主题的配置,调整数据的保留时间或者保留的数据大小,以便根据实际需求来管理数据的存储和清理。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后,选择指定的Topic点击其右侧“编辑”按钮。 (5)点击“编辑”后,在弹窗中修改具体参数,详见下表:Topic参数说明。 表:Topic参数说明 参数 参数说明 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。取值范围:1100,默认值:6 分区容量 每个分区的数据量的最大值,超过这个值后前面生产的消息将会被删除,保证了数据不会无限上涨挤爆磁盘。 是否同步刷盘 同步刷盘即确保消息被写入磁盘才会被认定为生产成功,该参数可提高可靠性,但是会影响性能。 消息保留时长 当消息生存时间超过该时长后,将会被清理,可用于控制存储成本。 最小同步副本数 该参数使得消息必须写入设定值个数的副本后,才能被认定生产成功,该参数可提高可靠性,但是过大会影响性能,且必须不大于副本数。 批处理消息最大值 每个批次中最大允许的消息大小,这影响了每次请求中能包含的消息总量和大小。 消息时间戳类型 CreateTime: 这是消息被生产者发送到Kafka时的时间戳,它表示消息创建的实际时间;LogAppendTime: 这是消息被Kafka日志接收并写入到日志文件时的时间戳,它表示消息写入 Kafka 的实际时间。 描述 topic的描述字段,可用作标记和说明。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic
      • 退订
        本节主要介绍分布式消息服务Kafka的退订说明 如果您有退订的需求,可以进行登录天翼云管理中心或产品控制台进行退订操作。天翼云目前支持7天无理由全额退订和非七天无理由退订以及其他退订,详细规则请参考文档费用中心退订。
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        退订
      • 使用限制
        介绍分布式消息服务Kafka产品功能的使用限制。 限制项 使用说明 实例 开通后,不支持修改VPC/子网/可用区,不支持变更地域属性 扩缩容 当前只支持节点、规格、磁盘扩容,不支持缩容 版本 当前服务端版本为2.132.8.2。实例创建后,服务端版本不支持升级,不支持定制版本 弹性ip 支持对每个节点绑定弹性ip,可以在公网访问topic,弹性ip只能通过SASL连接访问 topic创建 默认不支持自动创建,需要在页面上创建,总数不超过100个 topic分区数 只能增加不能减少,总分区数不能超过2000个,分区数过多会导致磁盘碎片化,影响性能 私有主题 支持私有主题 消息大小 默认1MB,可自定义配置 批量导入/导出 支持topic、消费组、连接用户的批量导入 私有消费组 支持私有消费组,需要在页面上创建、订阅对应的私有主题,并对连接用户授权
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        使用限制
      • 通过kafka导入日志
        本文主要介绍如何通过kafka导入日志。 本文主要介绍如何将天翼云分布式消息服务Kafka的数据导入到云日志服务,实现数据的查询分析、加工等操作。 注意 当前功能为试用阶段,仅在华北2资源池开放。 创建数据导入任务 1. 登录云日志服务控制台。 2. 左侧菜单栏点击“日志接入”,进入接入管理页面 3. 在“数据导入”模块中,点击“分布式消息服务Kafka数据导入” 4. 选择目标日志项目和日志单元,单击下一步。 5. 设置接入配置,配置如下参数,确认无误后,单击下一步。 参数 说明 接入配置名称 导入任务的唯一标识 Kafka 实例 选择kafka实例作为数据源 Topic 列表 选择Kafka主题,当前仅支持导入公有Topic 消费组 选择kafka中的消费组, 起始位置 选择开始导入数据的位置。 最早:从已有的第一条Kafka数据开始导入 最晚:从最近生成的Kafka数据开始导入 数据格式 待导入数据的格式。若您选择JSON字符串,导入任务会将原始数据解析为keyvalue对格式,只解析到第一层。 编码格式 选择导入数据的编码格式(即字符集),目前仅支持UTF8和GBK。 6. 创建索引。默认开启全文索引,您也可以根据需要手动创建字段索引用于字段查询。 7. 点击完成,即可完成导入任务创建。等待1分钟左右,在查询日志界面能查询到日志,则说明导入成功。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        其他接入方式
        通过kafka导入日志
      • 计费类常见问题
        基准带宽和磁盘可选择哪些? 资源、规格等信息可参考产品规格文档。 哪些资源池可以订购分布式消息服务Kafka? 天翼云分布式消息服务Kafka可以在以下资源池订购: (1)华南2、华东1、华北2、西南1、上海36、青岛20、长沙42、南昌5、南宁23、武汉41、太原4 (2)芜湖2、福州4、重庆2 、北京5 、佛山3、贵州3、杭州2、内蒙6、上海7、上海6、西安3、昆明2、保定、北京4、合肥2 、乌鲁木齐27 账户里面有钱,为什么无法创建按需付费Kafka实例? 请检查您的账户金额是否小于100元,如果小于100元,则无法创建新的Kafka实例。 (1)预存后付费方式:提前充值现金到天翼云账户中,现金账户余额不低于100元,之后系统按照用户实际使用量进行结算。 (2)计费周期:按小时计费,以自然小时为计费单位(均以北京时间为准),不满一小时按照一小时计费。费用从用户账户现金余额中扣费。开通时间建议整点开通,开通不足一个自然小时,按一小时收费。提前删除也按照自然小时收费。 欠费后如何重新启用? 如果您在15天内充值补足欠款,服务会自动启用。 欠费后,资源进入保留期,您将不能正常访问及使用云服务(资源冻结),但对于您存储在云服务中的数据予以保留。 若您在保留期内充值,充值后系统会自动扣减欠费金额。 若保留期到期您仍未充值,存储在云服务中的数据将被删除、云服务资源将被释放。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        计费与购买类
        计费类常见问题
      • 【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
        尊敬的天翼云客户,分布式消息服务MQTT自2025年12月27日起,订购和续订2年、3年选项默认不开放,调整为白名单特性。 调整时间 2025年12月27日 影响范围 所有区域 调整影响 新订购和续订的实例默认不开放2年、3年选项,您可以选择1年包年选项,如仍需要23年包周期选项,请联系技术支持开通后使用。 已购买2年、3年且还在服务期间的实例仍可继续正常使用不受影响。
        来自:
        帮助文档
        分布式消息服务MQTT
        服务公告
        2025年
        【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
      • 修改配置参数
        操作场景 天翼云分布式消息服务Kafka为实例、主题、消费组的几个常用配置提供了默认值,在实例开通时默认配置,并支持在控制台手动修改,您可以根据具体的业务需求,自行修改。这几种常用的配置参数,根据是否需要重启Kafka实例,可以分为动态参数和静态参数: 动态参数:修改成功后,无需重启实例,立即生效 静态参数:修改成功后,只有重启实例才能生效 自定义参数 使用限制 已开通天翼云Kafka集群版实例,实例的运行状态为“运行中”。 单机版不支持修改配置参数。 操作步骤 1. 登陆管理控制台 2. 进入Kafka管理控制台 3. 在实例列表页的操作列,目标实例行点击“管理” 4. 点击“配置参数”,在待修改参数所在行,单击“编辑”,修改配置参数。 5. 单击“保存”,完成参数的修改。 参数说明 动态参数 参数 参数说明 参数范围 默认值 log.flush.interval.messages 消息条数刷盘阈值,当实例 broker 接收的消息条数达到阈值时,将触发消息刷盘 1~9223372036854775807 9223372036854775807 min.insync.replicas 当 producer 将 acks 设置为 “all” (或“1”) 时,此配置指定必须确认写入才能被认为成功的副本的最小数量 1~3 1 message.max.bytes kafka 允许的 topic 最大单条消息大小(单位:字节) 0~10485760 10485760 max.connections.per.ip 每个 ip 允许的最大连接数。超过此连接数的连接请求将被丢弃 100~20000 1000 unclean.leader.election.enable 是否能够使不在 ISR 中 replicas 设置用来作为 leader true,false false
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        修改配置参数
      • 重置消费位置
        介绍分布式消息服务Kafka重置消费位置功能操作内容。 场景描述 Kafka重置消费位置的场景包括以下几个: 初次消费:当一个新的消费者加入到Kafka集群时,它需要从某个位置开始消费消息。在这种情况下,可以将消费位置重置为最早的消息或最新的消息。 消费者组重置:当消费者组中的消费者发生变化,如新增或退出消费者,可能需要重置消费位置。在这种情况下,可以将消费位置重置为最早的消息或最新的消息。 消费者出现故障:当消费者发生故障,并且需要将其替换或修复时,可能需要重置消费位置。在这种情况下,可以将消费位置重置为最早的消息或最新的消息,以确保新的消费者能够从正确的位置开始消费。 消费者重新处理消息:在某些情况下,消费者可能需要重新处理之前已经消费过的消息。这可能是由于消费者的处理逻辑发生变化,或者需要重新计算之前的结果。在这种情况下,可以将消费位置重置为指定的消息位置,以便消费者重新处理消息。 消费者消费速度过慢:当消费者的处理能力不足,无法及时消费消息时,可能需要重置消费位置。在这种情况下,可以将消费位置重置为最新的消息,以便消费者能够跳过堆积的消息,从最新的消息开始消费。 操作步骤 Tips:目前消费只能重置72小时内的消息,可选择72小时内时间点重置。 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“消费组管理”后进入消费组管理页面。 (5)在目标消费组所在行,点击其右侧的“更多”,在下拉框中单击“重置消费位置”。 (6)出现重置消费位置窗口后,可以选择从最新点位开始消费、从最旧点位开始消费、按时间点进行消费位置重置、重置消费点位到附近n条。 四种重置方式试用场景如下: 从最新点位开始消费:将消费者的消费位置重置为最新的消息。这意味着消费者将从当前Kafka主题的最新消息开始消费,忽略之前已经产生的消息。这种方式适用于只关注最新消息的场景,如实时监控或日志记录。 从最旧点位开始消费:将消费者的消费位置重置为最早的消息。这意味着消费者将从当前Kafka主题的最早消息开始消费,包括之前已经产生的消息。这种方式适用于需要处理全部消息历史记录的场景,如数据重播或数据分析。 按时间点进行消费位置重置:将消费者的消费位置重置为指定的时间点。这意味着消费者将从指定时间点之后的消息开始消费,可以精确地选择消费的起始位置。这种方式适用于需要从特定时间点开始消费的场景,如数据回溯或重新处理。 重置消费点位到附近n条:将消费者的消费位置重置到指定的消费位点上,这个是分区级别的,因此可以更加精确地选择消费的起始位置。这种方式适用于需要从特定位点开始消费的场景,如数据回溯或重新处理。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        重置消费位置
      • 重置Kafka Manager密码
        本文主要介绍 重置Kafka Manager密码。 操作场景 如果您忘记了创建实例时设置的Kafka Manager密码,通过重置Manager密码功能,重新设置一个新的密码,可使用新密码登录Kafka Manager。 前提条件 已创建Kafka实例,且实例处于“运行中”。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重置Kafka Manager密码。 在待重置Manager密码的Kafka实例所在行,单击“更多 > 重置Manager密码”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 重置Manager密码”。 单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,在“连接信息 > Manager用户名”后,单击“重置Manager密码”。 步骤 5 输入“新密码”和“确认密码”,单击“确定”,完成密码重置。 重置Manager密码成功,界面提示重置实例的密码成功。 重置Manager密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重置Kafka Manager密码
      • 修改实例信息
        本文主要讲述修改实例信息。 创建Kafka实例成功后,您可以根据自己的业务情况对Kafka实例的部分参数进行调整,包括实例名称、描述、安全组和容量阈值策略等。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 以下参数支持修改。 实例名称 企业项目(修改企业项目,不会重启实例) 描述 安全组 公网访问(公网访问的修改方法,请参考设置实例公网访问。) 容量阈值策略(修改容量阈值策略,不会重启实例。) Kafka自动创建Topic(修改Kafka自动创建Topic,会导致Kafka重启) 跨VPC访问(跨VPC访问的操作步骤,请参考使用DNAT访问Kafka实例。) 参数修改完成后,通过以下方式查看修改结果。 修改“容量阈值策略”、“公网访问”和“Kafka自动创建Topic”后,系统跳转到“后台任务管理”页签,并显示当前任务的操作进度和结果。 修改“实例名称”、“描述”、“企业项目”、“跨VPC访问”和“安全组”后,右上角直接提示修改结果。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        修改实例信息
      • 与其他服务的关系
        专属云(计算独享型) 该服务为专属云Kafka开通前必选服务,在开通了专属云计算独享后,才能在控制台中节点选择此专属云标识的环境,再进入控制台的分布式消息服务,来操作专属云Kafka的开通。 专属云(存储独享型) 该服务为专属云Kafka开通时的可选服务,在进如专属云Kafka的开通过程中,队列实例规格必须在专属云计算独享型,而队列存储的部分支持选择公有云的云盘承载,也可选择已经购买的专属云存储独享型,可根据需求灵活选择。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        产品简介
        与其他服务的关系
      • 必须配置的监控告警
        操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 在Kafka实例名称后,单击。 进入云监控该实例的监控指标页面。 步骤 5 在实例监控指标页面中,找到需要创建告警的指标项,鼠标移动到指标区域,然后单击指标右上角的,创建告警规则,跳转到创建告警规则页面。 步骤 6 在告警规则页面,设置告警信息。 创建告警规则操作,请查看《云监控服务用户指南》的“创建告警规则和告警通知”章节。 1. 设置告警名称和告警的描述。 2. 设置告警策略和告警级别。 如下图所示,在进行指标监控时,如果连续3个周期,磁盘容量使用率原始值超过85%,则产生告警,如果未及时处理,则产生告警通知。 图设置告警策略和告警级别 3. 设置“发送通知”开关。当开启时,设置告警生效时间、产生告警时通知的对象以及触发的条件。 4. 单击“立即创建”,等待创建告警规则成功。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        必须配置的监控告警
      • 计费模式
        本文主要介绍 计费模式。 分布式消息服务Kafka支持按需和包周期两种付费模式。 包年包月 Kafka当前支持包年、包月的计费方式。 且按天翼云的包年订购优惠策略享受相关的一次性包年订购优惠。 按需 Kafka当前支持按需的计费方式,按小时计费。 具体价格,请详见产品价格。
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        计费模式
      • 产品定义
        事件总线EventBridge是天翼云提供的一款Serverless事件总线服务,支持事件在总线中路由、过滤与转换,支持天翼云服务与自定义应用以标准化、中心化的方式接入,兼容CloudEvents 1.0协议,助力分布式事件驱动架构的快速构建。 核心概念 事件总线EventBridge涉及的核心概念如下: 事件:事件源状态变化的数据记录。 事件源:事件的来源,负责生产事件。 事件目标:事件的处理终端,负责消费事件。 事件总线:事件的中转站,负责事件的中间转储。 事件规则:用于匹配特定类型的事件。当事件成功匹配时,事件会被路由到与事件规则关联的事件目标。 事件总线总体架构 事件总线EventBridge的总体架构如下图所示: 事件源:事件的来源,将天翼云服务、自定义应用、SaaS应用等应用程序产生的事件消息投递至事件总线。 事件总线:存储接收到的事件消息,并根据事件规则将事件消息路由到事件目标。 事件目标:消费事件消息。 应用场景 事件总线EventBridge的典型应用场景如下: 构建事件驱动型架构:借助事件总线EventBridge,您无需了解事件源,就可以直接筛选并发布事件。 函数计算触发器:事件总线提供了统一的事件源接入方式,为函数计算服务提供SaaS应用事件或云服务事件的标准化接入。 应用事件流转:应用产生的事件可以通过事件总线触发其它相关联的应用,从而实现事件在应用与应用之间的流转。
        来自:
        帮助文档
        事件总线
        产品简介
        产品定义
      • 应用场景
        优势 多源数据分析免搬迁:关系型数据库RDS中存放车辆和车主基本信息,表格存储中存放实时的车辆位置和健康状态信息,数据仓库DWS中存放周期性统计的指标。通过DLI无需数据搬迁,对多数据源进行联邦分析。 数据分级存储:车企需要保留全量历史数据支撑审计类等业务,低频进行访问。温冷数据存放在低成本的对象存储服务OBS上,高频访问的热数据存放在数据引擎(DWS)中,降低整体存储成本。 告警快速敏捷触发服务器弹性伸缩:对CPU、内存、硬盘空间和带宽无特殊要求。 建议搭配以下服务使用: CDM、OBS、DWS。 大数据ETL处理 运营商大数据分析 运营商数据体量在PB~EB级,其数据种类多,有结构化的基站信息数据,非结构化的消息通信数据,同时对数据的时效性有很高的要求,DLI服务提供批处理、流处理等多模引擎,打破数据孤岛进行统一的数据分析。 优势 大数据ETL:具备TB~EB级运营商数据治理能力,能快速将海量运营商数据做ETL处理,为分布式批处理计算提供分布式数据集。 高吞吐低时延:采用Apache Flink的Dataflow模型,高性能计算资源,从用户自建的Kafka、MRSKafka、DMSKafka消费数据,单CU每秒吞吐1千~2万条消息。 建议搭配以下服务使用: OBS、DataArts Studio。
        来自:
        帮助文档
        数据湖探索
        产品简介
        应用场景
      • 消息中心
        本节介绍如何查看防护容器的下线通知和删除服务通知。 消息中心页面提供防护容器的下线通知和删除服务通知,以便用户及时恢复防护容器。 查看消息 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“消息中心”,进入消息中心页面。 3. 支持查看“服务信息”和“删除服务”类消息。 标记已读 在消息中心页面,阅读消息后,可以勾选多条消息后,单击“标记已读”,在弹出的对话框中,可以选择“全部标记已读”或只对当前选择项标记已读,选择完成后,单击“确认”。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        消息中心
      • 配置Kafka实例的公网访问
        关闭IPv4公网访问(支持修改明文/密文接入) 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka”,进入分布式消息服务Kafka专享版页面。 4. 单击Kafka实例的名称,进入实例的“基本信息”页面。 5. 关闭公网访问前,需要先关闭公网访问中的“明文接入”和“密文接入”。然后在“公网访问”后,单击,弹出确认关闭对话框。 6. 单击“确认”,跳转到“后台任务管理”页面。当任务状态显示为“成功”时,表示成功关闭公网访问。 关闭公网访问后,需要设置对应的安全组规则,才能成功通过内网连接Kafka。 表4 Kafka实例安全组规则(内网访问) 方向 协议 类型 端口 源地址 说明 入方向 TCP IPv4 9092 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(明文接入)。 入方向 TCP IPv4 9093 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(密文接入)。 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问Kafka实例,无需添加表4的规则。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        配置Kafka实例的公网访问
      • 入门指引
        本文主要介绍入门指引。 本文将为您介绍分布式消息服务Kafka入门的基本流程,主要包括控制台创建Kafka专享版实例、使用弹性云主机连接实例的操作,帮助您快速上手Kafka。 您还可以通过API方式创建Kafka实例、在业务代码中连接Kafka实例。 操作流程 图Kafka使用流程 1. 环境准备 Kafka实例运行于虚拟私有云中,在创建实例前需要确保有可用的虚拟私有云。 Kafka实例创建后,您需要在弹性云主机中下载和安装Kafka开源客户端,然后才能进行生产消息和消费消息。 2. 创建Kafka实例 在创建实例时,您可以选择是否开启SASL访问,开启后,数据加密传输,安全性更高。同时,SASL开关只能在创建实例时设置,实例创建成功后,不支持修改。 3. (可选)创建Topic Kafka实例创建成功后,如果没有开启“Kafka自动创建Topic”,需要手动创建Topic,然后才能进行生产消息和消费消息。 4. 连接实例 针对实例是否开启SASL开关,在连接时是否需要下载证书,区分以下两种场景: 未使用SASL:包含内网访问和公网访问。 使用SASL:包含内网访问和公网访问。 5. 配置告警 配置Kafka实例监控告警策略,监控实际业务运行状态。 说明 关于Kafka的相关概念,请参考
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        入门指引
      • MQTT触发器
        MQTT触发器可以订阅分布式消息服务MQTT并根据消息触发关联的函数,借此能力,使得函数可以消费指定Topic的消息,执行自定义处理逻辑。 前提条件 已创建函数。 已创建MQTT实例 操作步骤 1. 登录函数计算控制台,点击目标函数,进入函数详情。 2. 选择详情下顶部的配置选项卡。 3. 在配置选项卡中,选择左边的触发器选项卡。 4. 点击创建触发器 ,在弹出的右抽屉中选择MQTT触发器,配置参数解释如下: 配置项 操作 示例 触发器类型 选择MQTT触发器。 MQTT触发器 名称 填写自定义的触发器名称。 mqtttrigger 版本或别名 默认值为LATEST,支持选择任意函数版本或函数别名。 LATEST MQTT实例 选择已创建的MQTT实例。 Topic 填写订阅的消息Topic,请确保topic的命名符合以下"^[azAZ09/ +]+$"正则表达式 mytopic 调用方法 选择函数调用方式。 同步调用 :指触发器消费消息后投递到函数是同步调用,会等待函数响应后继续下一个消息投递。 异步调用:指触发器消费消息后投递到函数是异步调用,不会等待函数响应,可以快速消费事件。 用户ID 终端设备连接MQTT队列需要先创建用户密码,详情请查看认证授权 密钥 终端设备连接MQTT队列需要先创建用户密码,详情请查看认证授权 触发器启用状态 创建触发器后是否立即启用。默认选择开启,即创建触发器后立即启用触发器。 启用 注意 需要对用户名进行主题授权,MQTT触发器才能正常工作
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        MQTT触发器
      • 应用场景
        本节介绍分布式缓存服务Redis版产品的应用场景 电商类应用场景 在电商类场景中,分布式缓存服务Redis版广泛用于商品展示、购物推荐、在线选号以及在大型促销秒杀活动中的库存、计数控制等 热门商品展示:秒杀活动通常会吸引大量用户的访问,商品信息的读取是非常频繁的操作。为了减轻数据库负载和提高响应速度,可以使用Redis将热门商品的信息缓存起来。这样,用户每次请求秒杀商品时,可以先从Redis中获取商品信息,而不必每次都查询数据库,可以显著提升电商网站的性能和响应速度。 库存控制:秒杀活动对商品的库存有严格的限制,需要保证商品数量的准确性和并发访问的安全性。Redis提供了原子性操作和分布式锁的支持,可以使用Redis的原子减操作来实现商品库存的扣减,同时可以使用Redis的分布式锁来保护库存操作的并发安全性。可参考最佳实践:秒杀库存控制 异步处理订单:秒杀活动结束后,会有大量的订单需要处理。为了提高系统的并发能力和响应速度,可以使用Redis作为消息队列,将订单信息存储在Redis的列表中。然后通过多个消费者进程或线程从Redis中获取订单消息进行处理,实现订单的异步处理和解耦。 游戏类应用场景 分布式缓存服务Redis版是游戏中重要的组件,一般用于玩家数据的缓存和持久化。 缓存玩家数据:分布式缓存服务Redis版可以用作玩家数据的缓存存储,包括玩家的角色信息、道具装备、技能等业务数据。通过将玩家数据存储在Redis中,可以提高数据的读取速度,并减轻数据库的负载。这对于需要频繁读取玩家数据的游戏来说尤为重要。 排行榜数据存储:在一个在线游戏中,我们需要实时统计玩家的得分,并展示排行榜,以便玩家之间进行竞争和比较。可使用分布式缓存服务Redis版的有序集合数据结构存储用户排行榜,利用Redis提供的排序功能快速获取排名信息。可参考最佳实践:排行榜功能 状态管理和计数器:Redis的计数器和键值存储特性可以用于游戏中的状态管理和计数功能。例如,可以使用Redis的计数器记录游戏中的击杀数、经验值等,以及管理玩家的在线状态,同时可以使用Redis的键值存储功能存储和读取游戏中的各种状态信息。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        应用场景
      • Kafka磁盘选择超高IO还是高IO?
        本节介绍分布式消息服务Kafka磁盘类型 选择Kafka磁盘类型主要取决于应用的需求和预算。通常,对于Kafka来说,高IO磁盘是更常见的选择,因为它提供了更好的性能和吞吐量。 高IO磁盘具有更快的随机读写速度和更低的访问延迟。这对于Kafka来说非常重要,因为Kafka的性能和吞吐量受限于磁盘的读写速度。高IO磁盘适用于需要处理大量读写操作的场景,例如高频率的消息传递和数据写入。它可以提供更快的消息处理和更低的延迟,从而提高系统的响应性能。 超高IO磁盘也是一个可选的方案,它提供了更高的随机读写速度和更低的延迟,相对于传统的高IO磁盘来说性能更好。超高IO磁盘适用于对性能要求非常高的场景,例如大规模的实时数据处理和高吞吐量的消息队列。它可以提供更高的IOPS(每秒输入/输出操作数)和更低的延迟,从而支持更快的数据处理和更高的系统吞吐量。 综上所述,对于Kafka来说,一般情况下选择高IO磁盘是比较常见的选择,因为它提供了良好的性能和吞吐量。但如果预算允许,超高IO磁盘可以提供更高的性能和吞吐量,适用于对性能要求非常高的场景。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        计费与购买类
        Kafka磁盘选择超高IO还是高IO?
      • 配置作业消息通知
        本章节主要介绍如何配置作业消息通知。 MRS联合消息通知服务(SMN),采用主题订阅模型,提供一对多的消息订阅以及通知功能,能够实现一站式集成多种推送通知方式(短信和邮件通知)。通过配置作业消息通知可以实现您在作业执行成功或作业执行失败时能立即接收到通知。 操作步骤 1.登录管理控制台。 2.单击“服务列表”选择“管理与监管 > 消息通知服务”,进入消息通知服务页面。 3.创建主题并向主题中添加订阅,具体请参考配置消息通知。 4.进入MRS管理控制台,单击集群名称进入集群详情页面。 5.选择“告警管理 > 消息订阅规则 > 添加消息订阅规则”。 6.配置向订阅者发送作业执行结果消息的规则。 消息订阅规则参数说明 参数 说明 规则名称 用户自定义发送订阅消息的规则名称,只能包含数字、英文字符、中划线和下划线。 提醒通知 选择开启,将向订阅者发送对应订阅消息。 主题名称 选择已创建的主题,也可以单击“创建主题”重新创建。 消息类型 选择“事件”。 订阅规则 1. 单击“提示”前的。 2. 单击“Manager”前的。 3. 勾选“作业执行成功”和“作业执行失败”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        配置作业消息通知
      • 【通知】云原生引擎调整为白名单特性
        分布式消息服务Kafka引擎类型云原生引擎调整为白名单特性,更多了解请查看快速入门创建实例引擎类型说明。 调整时间 2024年7月5日 影响范围 所有区域 调整影响 新用户默认不开放云原生引擎订购开通,如需要该特性,请联系技术支持开通后使用。 已购买云原生引擎实例的用户,原实例仍可正常使用,续费、扩容等操作不受影响。
        来自:
        帮助文档
        分布式消息服务Kafka
        服务公告
        2024年
        【通知】云原生引擎调整为白名单特性
      • 【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
        尊敬的天翼云客户,分布式消息服务RocketMQ自2025年12月27日起,订购和续订2年、3年选项默认不开放,调整为白名单特性。 调整时间 2025年12月27日 影响范围 所有区域 调整影响 新订购和续订的实例默认不开放2年、3年选项,您可以选择1年包年选项,如仍需要23年包周期选项,请联系技术支持开通后使用。 已购买2年、3年且还在服务期间的实例仍可继续正常使用不受影响。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        服务公告
        2025年
        【通知】产品订购、续订包周期2年和3年选项调整为白名单特性
      • 1
      • ...
      • 15
      • 16
      • 17
      • 18
      • 19
      • ...
      • 531
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      轻量型云主机

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      科研助手

      人脸检测

      人脸活体检测

      推荐文档

      价格计算器

      配置老化周期

      批量登录主机

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号