活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息服务MNS_相关内容
      • 消息接收人设置
        本文主要介绍了消息接收人设置的操作流程。 消息接收人默认为账号联系人,不可编辑、删除。在账号联系人之外,用户可以添加或删除消息接收人,也可对消息接收人信息进行修改。 操作步骤 1、登录消息中心。 2、点击消息中心左侧导航,选择“消息接收人设置”。 3、消息接收人设置 新增消息接收人 (1)点击“新增消息接收人”,根据页面提示填写接收人姓名、手机号、邮箱并提交。 (2)点击邮箱及手机号右侧提示完成验证。 说明 需要邮箱及手机号均完成验证,新增的消息接收人才能在“消息管理”中完成添加。 修改消息接收人信息 (1)选择需要修改的消息接收人,点击“编辑”,然后根据需求,可修改接收人姓名、手机号、邮箱,然后提交。 (2)点击邮箱及手机号右侧提示完成验证。 说明 只修改姓名无需重新验证,若替换了新的邮箱/手机,则需要验证才能接收消息。 删除消息接收人 选择需要删除的消息接收人,点击“删除”,再次确认即可完成删除。
        来自:
        帮助文档
        账号中心
        消息中心
        消息订阅
        消息接收人设置
      • 产品类
        顺序消息和普通消息的区别是什么 最大的区别在于是否能保证消息生产和消费的顺序一致。 对于顺序消息,消息均根据ShardingKey进行区块分区,同一分区内的消息消费满足先进先出,保证分区有序,不同分区的消息消费顺序不做要求。 普通消息则没有该项保证,消息消费的顺序跟生产的顺序不一定保证一致性。 RocketMQ集群消费和广播消费区别是什么 使用集群消费模式时,MQ内任意一条消息只需被订阅组集群内的任意一个消费者消费即可。 使用广播消费模式时,MQ内每条消息都会投递到订阅组集群的所有消费者,每条消息至少被每个消费者消费一次。 多个订阅组订阅同一个主题时消息如何被消费 RocketMQ中订阅关系并非是一对一的,一个主题可以被一个或多个订阅组订阅,但不同订阅组之间的消费是互不影响的,它们各自维护自己在当前主题的消费偏移信息,每一条消息都会被订阅该主题的订阅组接收到。 消息消费失败是否会有重试机制 在push消费模式下,RocketMQ在消费者消费消息失败后会通过将消息重新投递到该订阅组的重试队列在一定时间后会被消费者重新消费到,如果多次失败则会多次重复上述的重试过程,超过最大次数之后(创建订阅组时可配置)会将消息投递到死信队列。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        常见问题
        产品类
      • 应用场景
        本节主要介绍分布式消息服务Kafka常用的应用场景 分布式消息服务Kafka主要适用于以下几种场景: 日志收集 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦。 支持实时在线分析系统和类似于 Hadoop 的离线分析系统。 Kafka本身的性能是非常高效的,同时Kafka的特性决定它非常适合作为"日志收集中心",这是因为Kafka在采集日志的时候业务是无感知的,其能够兼容自己的上游,能够直接地通过配置加密消息。当日志数据发送到Kafka集群里面,其实对于业务而言是完全无侵入的。同时其在下游又能够直接地对接Hadoop/ODPS等离线仓库存储和Strom/Spark等实现实时在线分析。在这样的情况之下,使用Kafka,只需要用户去关注整个流程里面的业务逻辑,而无需做更多的开发就能够实现统计、分析以及报表。 流计算处理 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦。 通过支持流计算引擎,可对接开源 Storm/Samza/Spark 流计算引擎。 Kafka能够做到流计算处理,比如股市走向分析、气象数据测控、网站用户行为分析等领域,由于在这些领域中数据产生快、实时性强、数据量大,所以很难统一采集并入库存储后再做处理,这便导致传统的数据处理架构不能满足需求。而Kafka Stream以及Storm/Samza/Spark等流计算引擎的出现,可以根据业务需求对数据进行计算分析,最终把结果保存或者分发给需要的组件。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        应用场景
      • RabbitMqConsumer监控
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 异常 (exception,RabbitMqConsumer调用的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常 (exception,RabbitMqConsumer调用的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常 (exception,RabbitMqConsumer调用的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常 (exception,RabbitMqConsumer调用的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常 (exception,RabbitMqConsumer调用的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) pushConsumeIdentifier identifier 推模式消费标识 ENUM LAST 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) concurrentMax 最大并发 消费消息最大并发 INT MAX 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) errorCount 错误次数 消费消息的错误次数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) invokeCount invokeCount Consume调用次数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) consumedMsgCount consumedMsgCount 消费消息数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) consumedBytes 消费字节数 消费字节数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) maxSingleMsgBytes 单次消费最大字节数 单次消费最大字节数 INT MAX 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) manualAckCount ack消息数 ack消息数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) rejectCount reject消息数 reject消息数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) requeueCount requeue消息数 requeue消息数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) lastError 错误信息 消费消息发生错误产生的错误信息 STRING LAST 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) maxTime 最大响应时间 消费消息的最大响应时间 INT MAX 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) runningCount 正在执行数 采集时间点正在执行的消费消息数量 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) totalTime 总响应时间 消费消息的总响应时间 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range5 110s 响应时间在110s范围请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) unackedMsgCount 未确认消息数(Channel) 该channel中未确认的消息数 INT LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) connection connection consumer连接信息 ENUM LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) connectionCount 当前连接数 当前连接数 INT LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) channelCount 当前Channel数 当前Channel数 INT LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) connectionCreated 创建连接数 创建连接数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) connectionClosed 销毁连接数 销毁连接数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) channelCreated 创建Channel数 创建Channel数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) channelClosed 销毁Channel数 销毁Channel数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) concurrentMax 最大并发 消费消息最大并发 INT MAX connection监控(connectionConsume,以connection为维度统计消息消费详情。) errorCount 错误次数 消费消息的错误次数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) invokeCount invokeCount Consume调用次数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) consumedMsgCount consumedMsgCount 消费消息数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) consumedBytes 消费字节数 消费字节数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) maxSingleMsgBytes 单次消费最大字节数 单次消费最大字节数 INT MAX connection监控(connectionConsume,以connection为维度统计消息消费详情。) manualAckCount ack消息数 ack消息数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) rejectCount reject消息数 reject消息数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) requeueCount requeue消息数 requeue消息数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) lastError 错误信息 消费消息发生错误产生的错误信息 STRING LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) maxTime 最大响应时间 消费消息的最大响应时间 INT MAX connection监控(connectionConsume,以connection为维度统计消息消费详情。) runningCount 正在执行数 采集时间点正在执行的消费消息数量 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) totalTime 总响应时间 消费消息的总响应时间 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range5 110s 响应时间在110s范围请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) unackedMsgCount 未确认消息数 该连接中未确认的消息数 INT LAST total监控(total,以客户端为维度统计消息消费详情。) concurrentMax 最大并发 消费消息最大并发 INT MAX total监控(total,以客户端为维度统计消息消费详情。) errorCount 错误次数 消费消息的错误次数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST total监控(total,以客户端为维度统计消息消费详情。) invokeCount invokeCount Consume调用次数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) consumedMsgCount consumedMsgCount 消费消息数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) consumedBytes 消费字节数 消费字节数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) maxSingleMsgBytes 单次消费最大字节数 单次消费最大字节数 INT MAX total监控(total,以客户端为维度统计消息消费详情。) manualAckCount ack消息数 ack消息数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) rejectCount reject消息数 reject消息数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) requeueCount requeue消息数 requeue消息数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) lastError 错误信息 消费消息发生错误产生的错误信息 STRING LAST total监控(total,以客户端为维度统计消息消费详情。) maxTime 最大响应时间 消费消息的最大响应时间 INT MAX total监控(total,以客户端为维度统计消息消费详情。) runningCount 正在执行数 采集时间点正在执行的消费消息数量 INT SUM total监控(total,以客户端为维度统计消息消费详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST total监控(total,以客户端为维度统计消息消费详情。) totalTime 总响应时间 消费消息的总响应时间 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range5 110s 响应时间在110s范围请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) unackedMsgCount 未确认消息数 该客户端中未确认的消息数 INT LAST
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        消息队列
        RabbitMqConsumer监控
      • Kafka业务迁移
        介绍分布式消息服务Kafka业务迁移内容。 应用场景 Kafka的业务迁移可以应用在多个领域和场景中,包括但不限于以下几个方面: 数据集成和数据仓库:Kafka可以用作数据集成的中间件,将分散的数据源集中到一个统一的平台上。通过使用Kafka的生产者和消费者,可以实现数据的可靠传输和消费,支持实时的数据集成和数据仓库的建设。 实时数据处理和流处理:Kafka提供了流处理功能,可以对实时数据流进行处理和分析。通过使用Kafka Streams、Apache Flink等流处理框架,可以对数据流进行实时的计算、转换、聚合等操作,实现实时数据处理和实时决策。 异步通信和消息队列:Kafka作为消息队列,可以用于异步通信和解耦系统之间的依赖关系。通过将同步的请求和响应转换为异步的消息,可以提高系统的可伸缩性和响应性能,实现松耦合的系统架构。 日志收集和分析:Kafka可以用作日志收集和分析的中间件,用于接收和传递系统和应用程序的日志数据。通过将日志数据发送到Kafka中,可以实现日志的集中存储和分发。同时,可以使用Kafka的消费者来实时消费和分析日志数据,帮助进行故障排查、性能监控和安全审计等工作。 数据同步和复制:在多个数据中心或分布式系统之间进行数据同步和复制时,可以使用Kafka作为数据的中间传输通道。通过使用Kafka的生产者和消费者,可以实现数据的可靠传输和复制,保证数据的一致性和可用性。 这些只是Kafka业务迁移的一部分应用场景,实际应用中还有很多其他的需求和场景。Kafka的高性能、可靠性和可扩展性使其成为业务迁移的理想选择。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka业务迁移
      • 按需转包周期
        本节适用于南京3、重庆2、晋中、上海7、北京5、内蒙6、石家庄20节点。 场景描述 RocketMQ的按需转包周期的场景描述如下: 在使用RocketMQ时,可能会遇到需要设置按需转包周期的场景,例如: 消息积压处理:当RocketMQ中的消息积压较多时,可能会导致消息的消费速度跟不上消息的生产速度,进而影响系统的性能和稳定性。为了解决这个问题,可以设置按需转包周期,即将一定数量的消息打包成一个批次进行消费,以提高消费的效率和吞吐量。 业务流量波动:在某些业务场景下,业务流量可能会出现波动,即某个时间段内的消息产生速度较快,而另一个时间段内的消息产生速度较慢。为了更好地适应业务流量的波动,可以设置按需转包周期,以根据实际的消息产生情况进行灵活的批量消费。 系统资源优化:当RocketMQ的消费者资源有限时,可以通过设置按需转包周期来优化系统的资源利用。通过将一定数量的消息打包成一个批次进行消费,可以减少消费者的竞争和上下文切换,提高系统的并发处理能力。 消息处理延迟优化:在某些场景下,对消息的实时性要求较低,可以通过设置按需转包周期来优化消息的处理延迟。将一定数量的消息打包成一个批次进行消费,可以减少消息的处理次数,从而降低消息的处理延迟。 需要注意的是,在设置按需转包周期时,应根据实际业务需求和系统情况进行调整。同时,应考虑消息的重要性、消费者的处理能力、系统的资源限制等因素,以确保系统的稳定性和性能。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        按需转包周期
      • 批量修改Topic配置
        参数名称 说明 分区数 Topic的分区数。 老化时间 消息的最长保留时间。 副本数 Topic每个分区的副本数量。 同步复制 后端收到生产消息请求并复制给所有副本后,才返回客户端。 同步落盘 开启:生产的每条消息都会立即写入磁盘,可靠性更高。 关闭:生产的消息存在内存中,不会立即写入磁盘。 消息时间戳类型 定义消息中的时间戳类型,取值如下: CreateTime:生产者创建消息的时间。 LogAppendTime:broker将消息写入日志的时间。 批处理消息最大值 Kafka允许的最大批处理大小,如果启用消息压缩,则表示压缩后的最大批处理大小。 如果增加“批处理消息最大值”的值,且存在消费者版本早于0.10.2,此时消费者的“fetch size”值也必须增加,以便消费者可以获取增加后的批处理大小。 描述 Topic的描述信息。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        批量修改Topic配置
      • 基于消息队列RocketMQ实现全链路灰度
        创建泳道组 1. 登录微服务治理控制台。 2. 在左侧导航栏选择全链路灰度,点击创建泳道组。 3. 在创建泳道组也页面,设置泳道组相关参数,然后单击确定。 创建泳道 1. 找到目标泳道组页面,点击创建第一个分流泳道。 2. 设置泳道名称,选择目标应用所属标签,创建泳道。 设置泳道组路由规则 设置路由规则,通过前端访问传过来不同的Header,在自建网关通过header判断将流量路由到指定的泳道。 开启消息灰度 1. 进入微服务治理中心控制台,点击应用治理。 2. 依次点击应用卡片appa、appb和appc。 3. 选择流量治理>消息灰度。 4. 点击编辑,分别打开appa、appb和appc的消息灰度开关。 结果验证 通过自建网关访问appa>appb>appc。 不携带Header参数taggray请求appa接口/a/mqGray,发现appc获得消息消费。 携带Header参数taggray请求appa接口/a/mqGray,发现appcgray获得消息消费。
        来自:
        帮助文档
        微服务引擎
        最佳实践
        基于消息队列RocketMQ实现全链路灰度
      • 安全分析
        生产者 是用来构建并传输数据到服务端的逻辑概念,负责把数据放入消息队列。 订阅器 用于订阅态势感知(专业版)管道消息,一个管道可由多个订阅器进行订阅,态势感知(专业版)通过订阅器进行消息分发。 消费者 是用来接收并处理数据的运行实体,负责通过订阅器把态势感知(专业版)管道中的消息进行消费并处理。 消息队列 是数据存储和传输的实际容器。 威胁检测模型 是一种被训练的AI智能识别算法模型。能针对特定威胁,自动化的完成数据汇聚、分析和报警,这种检测模式具备较好的泛化能力,防躲避能力强,可在不同业务系统中发挥同等效果,应对复杂的新型攻击。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        产品介绍
        基本概念
        安全分析
      • 消息监控
        针对各类消息插件进行监控。 功能入口 1. 选择目标资源池,并登录APM组件控制台。 2. 在左侧导航栏中选择「应用监控 」「应用列表」。 3. 在应用列表中选择您想查看的应用,点击「应用名称」打开新的应用详情链接。 4. 在左侧导航栏中选择「应用详情 」,您可以在应用详情页面切换至「消息监控」页签,在左侧关键指标中选择不同的应用实例,可查看该应用实例相应的概览信息。 功能说明 KafkaProducer 总发送次数&总发送字节数 显示总发送次数和总发送字节数的趋势图。 总发送次数:这是指生产者在其生命周期内成功发送到Kafka broker的消息数量。这个数字可以帮助我们了解生产者在实际运行中的消息处理能力和稳定性。例如,如果一个生产者在一段时间内发送了10000条消息,那么它的总发送次数就是10000。 总发送字节数:这是指生产者在其生命周期内发送到Kafka broker的所有消息的总字节数。这个数字反映了生产者传输的数据量,是评估生产者负载和资源消耗的一个重要指标。例如,如果生产者发送了10000条消息,每条消息大小为1KB,则总发送字节数为10000 1024 10,485,760字节。 这两个指标通常用于监控和优化Kafka生产者的性能,确保其能够高效、稳定地处理消息。通过这些数据,可以发现生产者是否存在瓶颈或问题,并进行相应的调整和优化。 通过消息队列发送消息 显示topic列表,表头如下。 Topic:是指消息发送到消息队列中的特定主题(topic)。主题是消息队列中的逻辑分类,用于将相关的消息归类和分组。每个topic可以包含多条消息,每条消息都有一个特定的主题标签。 调用次数:表示当前这个Topic在一段时间内,通过消息队列发送消息的总调用次数。每次发送消息都会被计算为一次调用。 平均响应时间(ms):是指在发送消息的过程中,从发送请求到接收到响应的平均时间。它表示了发送消息的速度和效率。 错误数:表示在发送消息的过程中发生的错误次数。这些错误可能包括发送消息失败、网络连接问题或其他异常情况。 最慢调用(ms):是指在一段时间内,发送消息过程中最耗时的一次调用的时间。它反映了发送消息中的性能瓶颈或延迟情况。 操作:点击详情,出现弹层显示调用次数、平均响应时间(ms)、错误数在筛选时间段内的趋势图。 这些指标可以帮助您监控和分析通过消息队列发送消息的性能和健康状况。通过追踪调用次数、平均响应时间、错误数和最慢调用时间,您可以了解消息发送的频率、效率、稳定性和延迟情况,从而进行性能优化、故障排除和容量规划等方面的工作。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        应用详情
        消息监控
      • 消息管理
        本文主要介绍了消息管理页面的功能和使用。 当前支持的消息接收方式包括:邮箱、短信。用户可以开启或关闭消息接收。 操作步骤 1、登录消息中心。 2、点击消息中心左侧导航,选择“消息管理“ 3、配置消息接收方式。 勾选邮箱、短信,可以选择该类消息的接收方式。 点击修改,可以选择该类消息的接收人。 勾选多个消息类型,可进行批量添加或删除消息接收人。
        来自:
        帮助文档
        账号中心
        消息中心
        消息订阅
        消息管理
      • 与其他产品的关系
        本章节主要介绍数据湖探索(DLI)其他服务的关系。 与对象存储服务(OBS)的关系 对象存储服务(Object Storage Service)作为数据湖探索的数据来源及数据存储,与数据湖探索配合一起使用,关系有如下四种。 • 数据来源:数据湖探索服务提供API,支持将OBS对应路径的数据导入到数据湖探索。 • 存储数据:数据湖探索中支持创建OBS表,该类型表在数据湖探索服务中只有元数据,实际数据在该表对应的OBS路径中。 • 备份数据:数据湖探索提供导出API,支持将数据湖探索的数据导出到OBS中备份。 • 存储查询结果:数据湖探索提供API供用户将日常作业的查询结果数据保存到OBS。 与统一身份认证服务(IAM)的关系 统一身份认证服务(Identity and Access Management)为数据湖探索提供了天翼云统一入口鉴权功能。 与云审计服务(CTS)的关系 云审计服务(Cloud Trace Service)为数据湖探索提供对应用户的操作审计。 与云监控服务的关系 云监控(Cloud Eye)为数据湖探索提供监控数据,监控作业中的多项指标,从而集中高效地呈现状态信息。 与消息通知服务(SMN)的关系 消息通知服务(Simple Message Notification)可以在数据湖探索发生作业运行异常时给用户发送通知。 与云数据迁移服务(CDM)的关系 云数据迁移服务(Cloud Data Migration)可以将OBS的数据迁移到数据湖探索中。 与数据接入服务(DIS)的关系 数据接入服务(Data Ingestion Service)通过通道将数据导入到数据湖探索。
        来自:
        帮助文档
        数据湖探索
        产品简介
        与其他产品的关系
      • RabbitMqProducer监控
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 异常(exception,RabbitMqProducer调用的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,RabbitMqProducer调用的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常(exception,RabbitMqProducer调用的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常(exception,RabbitMqProducer调用的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常(exception,RabbitMqProducer调用的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST exchange监控(exchangePublish,以exchange为维度统计消息推送详情) connection connection producer连接信息 ENUM LAST exchange监控(exchangePublish,以exchange为维度统计消息推送详情) exchange exchange exchange名 ENUM LAST exchange监控(exchangePublish,以exchange为维度统计消息推送详情) concurrentMax 最大并发 推送消息最大并发 INT MAX exchange监控(exchangePublish,以exchange为维度统计消息推送详情) errorCount 错误次数 推送消息的错误次数 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST exchange监控(exchangePublish,以exchange为维度统计消息推送详情) invokeCount invokeCount Publish调用次数 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) publishedMsgCount publishedMsgCount 推送消息数 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) publishedBytes 推送字节数 推送字节数 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) maxSingleMsgBytes 单次推送最大字节数 单次推送最大字节数 INT MAX exchange监控(exchangePublish,以exchange为维度统计消息推送详情) lastError 错误信息 推送消息发生错误产生的错误信息 STRING LAST exchange监控(exchangePublish,以exchange为维度统计消息推送详情) maxTime 最大响应时间 推送消息的最大响应时间 INT MAX exchange监控(exchangePublish,以exchange为维度统计消息推送详情) runningCount 正在执行数 采集时间点正在执行的推送消息数量 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST exchange监控(exchangePublish,以exchange为维度统计消息推送详情) totalTime 总响应时间 推送消息的总响应时间 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) range1 010ms 响应时间在010ms范围请求数 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) range2 10100ms 响应时间在10100ms范围请求数 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) range3 100200ms 响应时间在100200ms范围请求数 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) range5 110s 响应时间在110s范围请求数 INT SUM exchange监控(exchangePublish,以exchange为维度统计消息推送详情) range6 10s以上 响应时间在10s以上请求数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) connection connection producer连接信息 ENUM LAST connection监控(connectionPublish,以connection为维度统计消息推送详情。) connectionCount 当前连接数 当前连接数 INT LAST connection监控(connectionPublish,以connection为维度统计消息推送详情。) channelCount 当前Channel数 当前Channel数 INT LAST connection监控(connectionPublish,以connection为维度统计消息推送详情。) connectionCreated 创建连接数 创建连接数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) connectionClosed 销毁连接数 销毁连接数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) channelCreated 创建Channel数 创建Channel数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) channelClosed 销毁Channel数 销毁Channel数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) concurrentMax 最大并发 推送消息最大并发 INT MAX connection监控(connectionPublish,以connection为维度统计消息推送详情。) errorCount 错误次数 推送消息的错误次数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST connection监控(connectionPublish,以connection为维度统计消息推送详情。) invokeCount invokeCount Publish调用次数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) publishedMsgCount publishedMsgCount 推送消息数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) publishedBytes 推送字节数 推送字节数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) maxSingleMsgBytes 单次推送最大字节数 单次推送最大字节数 INT MAX connection监控(connectionPublish,以connection为维度统计消息推送详情。) lastError 错误信息 推送消息发生错误产生的错误信息 STRING LAST connection监控(connectionPublish,以connection为维度统计消息推送详情。) maxTime 最大响应时间 推送消息的最大响应时间 INT MAX connection监控(connectionPublish,以connection为维度统计消息推送详情。) runningCount 正在执行数 采集时间点正在执行的推送消息数量 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST connection监控(connectionPublish,以connection为维度统计消息推送详情。) totalTime 总响应时间 推送消息的总响应时间 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) range5 110s 响应时间在110s范围请求数 INT SUM connection监控(connectionPublish,以connection为维度统计消息推送详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM total监控(total,以客户端为维度统计消息推送详情。) concurrentMax 最大并发 推送消息最大并发 INT MAX total监控(total,以客户端为维度统计消息推送详情。) errorCount 错误次数 推送消息的错误次数 INT SUM total监控(total,以客户端为维度统计消息推送详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST total监控(total,以客户端为维度统计消息推送详情。) invokeCount invokeCount Publish调用次数 INT SUM total监控(total,以客户端为维度统计消息推送详情。) publishedMsgCount publishedMsgCount 推送消息数 INT SUM total监控(total,以客户端为维度统计消息推送详情。) publishedBytes 推送字节数 推送字节数 INT SUM total监控(total,以客户端为维度统计消息推送详情。) maxSingleMsgBytes 单次推送最大字节数 单次推送最大字节数 INT MAX total监控(total,以客户端为维度统计消息推送详情。) lastError 错误信息 推送消息发生错误产生的错误信息 STRING LAST total监控(total,以客户端为维度统计消息推送详情。) maxTime 最大响应时间 推送消息的最大响应时间 INT MAX total监控(total,以客户端为维度统计消息推送详情。) runningCount 正在执行数 采集时间点正在执行的推送消息数量 INT SUM total监控(total,以客户端为维度统计消息推送详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST total监控(total,以客户端为维度统计消息推送详情。) totalTime 总响应时间 推送消息的总响应时间 INT SUM total监控(total,以客户端为维度统计消息推送详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息推送详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息推送详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息推送详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息推送详情。) range5 110s 响应时间在110s范围请求数 INT SUM total监控(total,以客户端为维度统计消息推送详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        消息队列
        RabbitMqProducer监控
      • 消费端挂载NFS是否会影响消费速度?
        本节介绍消费端挂载NFS是否会影响消费速度 消费端在消费消息的主线程里同步将拉取的消息存储在NFS,导致消费端处理消息的速度变慢,阻塞消息处理。 可能原因 NFS本身速度就不太理想。 NFS是网络共享存储,虽然有多机器共享访问的能力优势,但多台机器访问是争抢的,消费者个数增多,性能反而下降。 解决方案 建议将消费端拉取消息和存储消息分别放在两个独立且不同的线程里操作。拉取消息的线程只管消费消息,把消息转给缓存处理线程后就继续消费消息,这样可以保证消费速度的稳定。 也可以考虑采用云盘,给每台消费端处理机挂载自己的云盘,各自独立存储,这样消费端不会再因为争抢NFS而降低性能。如果需要把最终的处理结果集中到同一个NFS上保存,仍然可以通过一个异步的工具或者线程,把云盘上的结果再转发到NFS上,而不要让同步存储NFS阻塞消息处理。总之,对于资源访问造成的处理低效,总是可以用异步处理的方式解决。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        消费端挂载NFS是否会影响消费速度?
      • 连接常见问题
        本节介绍分布式消息服务Kafka连接常见问题 接入地址出现不足三个ip+端口? 集群三台机器正常运作的情况下,接入点会出现三个ip:port连起来,当出现不足三个时候,说明其中一台机器不正常工作(没出现在接入点的机器),请尽快联系管理人员查看不正常工作的节点,尽快恢复。 实例是否支持跨VPC访问? 实例支持跨VPC访问,可以通过创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问实例。 如何通过代理访问Kafka实例 暂不支持通过代理访问Kafka实例。 原因:客户端通过bootstrap.servers随机访问服务器获取元数据,通过元数据里的IP地址进行后续的消息收发。配置代理后,第一步正常,但在第二步时,客户端仍然通过元数据中的IP地址进行访问,导致访问不通。因此,必须保证网络全连通。 生产者会建立多少个连接到Broker? 每个生产者通常会建立2个到Broker的TCP连接,一个TCP连接用于更新元数据,一个TCP连接用于发送消息。 VPC实例和公网/VPC实例的区别是什么? VPC实例:仅提供VPC接入点,只能通过VPC访问。 公网/VPC实例:提供公网接入点和VPC接入点,可以通过公网访问,也可以通过VPC访问。 Kafka实例是否支持公网访问? Kafka实例支持公网访问。使用公网访问Kafka实例的具体操作,请参考设置公网ip。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
        连接常见问题
      • 应用服务网格
        参数 描述 STARTTIME 请求开始时间。 REQ(:METHOD) 请求方法。 REQ(XENVOYORIGINALPATH?:PATH) 请求的原始路径,若无则使用标准路径。 PROTOCOL 请求所使用的协议。 RESPONSECODE 服务器对请求的响应状态码。 RESPONSEFLAGS 响应的标志,提供关于响应的特性信息。 BYTESRECEIVED 接收到的字节数,指示请求消息的大小。 BYTESSENT 发送出去的字节数,指示响应消息的大小。 DURATION 请求处理的持续时间,包括接收到请求到发送响应的时间。 RESP(XENVOYUPSTREAMSERVICETIME) 上游服务的响应时间,表示上游服务处理请求所花费的时间。 REQ(XFORWARDEDFOR) 请求的xff头部。 REQ(USERAGENT) 请求的用户代理,标识发起请求的软件。 REQ(XREQUESTID) 请求的唯一标识符,用于跟踪请求的生命周期。 REQ(:AUTHORITY) 请求的主机名,在HTTP/2中对应请求的authority字段。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        应用服务网格
      • 创建流控
        本文主要介绍 创建流控。 操作场景 本章节指导您在控制台对用户/客户端/Topic进行流量控制,控制生产/消费消息的上限速率。 用户/客户端的流控作用范围是整个broker,Topic的流控作用范围是指定Topic。 操作影响 当流控值达到上限后,会导致生产/消费的时延增大。 设置的流控值较小且生产者速率较大时,可能会造成生产超时、消息丢失,导致部分消息生产失败。 初始生产/消费的流量较大,如果设置一个较小的流控值,会导致生产/消费的时延增大、部分消息生产失败。建议逐次减半设置流控值,待生产/消费稳定后继续减半设置,直到设置为目标流控值。例如初始生产流量100MB/s,可先设置生产流控为50MB/s,待稳定后再修改为25MB/s,直到目标流控值。 前提条件 如果需要对用户进行流量控制,请在创建Kafka实例时,开启SASLSSL功能。然后在控制台的“用户管理”页面,获取用户名。 如果需要对指定客户端进行流量控制,请在客户端配置中获取client ID。 如果需要对指定Topic进行流量控制,请在控制台的“Topic管理”页面,获取Topic名称。 创建用户/客户端流控 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在页面顶端单击“User/Client”,进入“User/Client”页签。 步骤 7 在页面左上角单击“创建流控”,弹出“创建流控”对话框。 步骤 8 设置流控参数。 表 流控参数说明 参数名称 说明 用户名 输入指定用户名,对此用户进行流控。如果需要对所有用户进行流控,在“用户名”后,单击“选择默认”。流控创建完后,无法修改“用户名”。 客户端ID 输入指定客户端ID,对此客户端进行流控。如果需要对所有客户端进行流控,在“客户端ID”后,单击“选择默认”。流控创建完后,无法修改“客户端ID”。 生产上限速率 设置生产上限速率,单位为MB/s。为空时,表示不设置速率。 消费上限速率 设置消费上限速率,单位为MB/s。为空时,表示不设置速率。 说明 未开启SASL的实例,在“创建流控”对话框中,不显示“用户名”。 “用户名”和“客户端ID”不可同时为空。 “生产上限速率”和“消费上限速率”不可同时为空。 步骤 9 单击“确定”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示流控创建成功。 进入“流控管理 > 流控列表”页面,在“User/Client”页签中,单击页面右上角的“仅设置了用户名”/“仅设置了客户端ID”/“设置了用户名和客户端ID”,输入新创建的流控名称,单击,查看新创建的流控。 图 查看新创建的流控
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        创建流控
      • 应用场景
        本章介绍分布式缓存服务Redis版的典型应用场景。 Redis应用场景 很多大型电商网站、视频直播和游戏应用等,存在 大规模数据访问 ,对 数据查询效率要求高 ,且 数据结构简单 , 不涉及太多关联查询 。这种场景使用Redis,在速度上对传统磁盘数据库有很大优势,能够有效减少数据库磁盘IO,提高数据查询效率,减轻管理维护工作量,降低数据库存储成本。Redis对传统磁盘数据库是一个重要的补充,成为了互联网应用,尤其是支持高并发访问的互联网应用必不可少的基础服务之一。 以下举几个典型样例: 1. (电商网站)秒杀抢购 电商网站的商品类目、推荐系统以及秒杀抢购活动,适宜使用Redis缓存数据库。 例如秒杀抢购活动,并发高,对于传统关系型数据库来说访问压力大,需要较高的硬件配置(如磁盘IO)支撑。Redis数据库,单节点QPS支撑能达到10万,轻松应对秒杀并发。实现秒杀和数据加锁的命令简单,使用SET、GET、DEL、RPUSH等命令即可。 2. (视频直播)消息弹幕 直播间的在线用户列表,礼物排行榜,弹幕消息等信息,都适合使用Redis中的SortedSet结构进行存储。 例如弹幕消息,可使用ZREVRANGEBYSCORE排序返回,在Redis5.0中,新增了zpopmax,zpopmin命令,更加方便消息处理。 3. (游戏应用)游戏排行榜 在线游戏一般涉及排行榜实时展现,比如列出当前得分最高的10个用户。使用Redis的有序集合存储用户排行榜非常合适,有序集合使用非常简单,提供多达20个操作集合的命令。 4. (社交APP)返回最新评论/回复 在web类应用中,常有“最新评论”之类的查询,如果使用关系型数据库,往往涉及到按评论时间逆排序,随着评论越来越多,排序效率越来越低,且并发频繁。 使用Redis的List(链表),例如存储最新1000条评论,当请求的评论数在这个范围,就不需要访问磁盘数据库,直接从缓存中返回,减少数据库压力的同时,提升APP的响应速度。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        应用场景
      • 查看实例
        本章节主要介绍如何查看分布式消息服务RabbitMQ实例。 操作场景 本节介绍如何在控制台查看RabbitMQ实例的详细信息。例如,连接RabbitMQ时,需要获取连接IP和端口。 前提条件 已创建RabbitMQ实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务 > RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 RabbitMQ实例支持通过筛选来查询对应的RabbitMQ实例。当前支持的筛选条件为“标签”、“状态”、“名称”、“连接地址”和“ID”。RabbitMQ实例状态请参见表1。 表1 RabbitMQ实例状态说明 状态 说明 创建中 创建RabbitMQ实例后,在RabbitMQ实例状态进入运行中之前的状态。 运行中 RabbitMQ实例正常运行状态。在这个状态的实例可以运行您的业务。 故障 RabbitMQ实例处于故障的状态。 启动中 RabbitMQ实例从已冻结到运行中的中间状态。 重启中 RabbitMQ实例正在进行重启操作。 变更中 RabbitMQ实例正在进行规格变更操作。 变更失败 RabbitMQ实例处于规格变更操作失败的状态。 已冻结 RabbitMQ实例处于已冻结状态。 冻结中 RabbitMQ实例从运行中到已冻结的中间状态。 升级中 RabbitMQ实例正在进行升级操作。 回滚中 RabbitMQ实例正在进行回滚操作。 步骤 4 单击RabbitMQ实例的名称,进入该RabbitMQ实例的基本信息页面,查看RabbitMQ实例的详细信息。 表2为连接实例的相关参数,其他参数,请查看页面显示。 表2 连接参数说明 参数 说明 内网连接地址 未开启公网访问时,连接实例的地址。 Web界面UI地址 未开启公网访问时,访问实例管理工具的地址。 公网访问 是否开启公网访问开关。 公网连接地址 开启公网访问后,连接实例的地址。 公网访问Web界面UI地址 开启公网访问后,访问实例管理工具的地址。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        查看实例
      • 编辑流控
        本文主要介绍编辑流控。 操作场景 本章节指导您在流控创建成功后,修改生产上限速率或者消费上限速率。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在待修改的流控所在行,单击“编辑”,弹出“编辑流控”对话框。 步骤 7 修改生产上限速率或者消费上限速率,单击“确定”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示流控修改成功。 进入“流控管理 > 流控列表”页面,查看修改后流控的生产上限速率或者消费上限速率。 说明 “生产上限速率”和“消费上限速率”不可同时为空。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        编辑流控
      • 设置通知方式
        本小节介绍服务器安全卫士的设置通知方式。 通知类型 产品到期、入侵告警等,支持邮箱、站内信和短信通知。 设置方法 初次登录服务器安全卫士时,需要录入手机号和邮箱,以便进行通知。 也可以登录消息中心——消息接收设置界面,设置接收的消息类型、接收方式,或增加接收人。
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        快速入门
        设置通知方式
      • 实例问题
        sectionaf1f4cd067bf253e)。 Kafka实例的SSL证书有效期多长? Kafka实例开启SASL时,需进行单向认证,证书有效期足够长(超过15年),客户端不需要关注证书过期风险。 如何将Kafka实例中的数据同步到另一个Kafka实例中? Kafka实例之间没有好的实时同步方案,如果需要做实例迁移,可以同时向两个实例生产消息,源实例中的消息可继续消费,待源实例的消息数据全部被消费完或老化后,业务可迁移到新的Kafka实例。 Kafka实例的SASLSSL开关如何修改? Kafka SASLSSL开关不支持购买实例后修改,在购买时,请慎重选择,如果购买后需要修改,需要重新购买实例。 开启IPv6的实例不支持动态修改SASLSSL开关。 SASL认证机制如何修改? 实例创建后,不支持修改SASL认证机制。如果需要修改,请重新购买实例。 修改企业项目,是否会导致Kafka重启? 修改企业项目不会导致Kafka重启。 Kafka服务和ZK是部署在相同的虚拟机中,还是分开部署? Kafka服务和ZK部署在相同的虚拟机中。 Kafka包周期实例不支持删除吗? 可以删除。登录Kafka控制台,在包周期实例所在行,单击“更多 > 退订”,完成实例的删除。 Kafka支持哪些加密套件? 由于安全问题,支持的加密套件为TLSECDHEECDSAWITHAES128CBCSHA256,TLSECDHERSAWITHAES128CBCSHA256和TLSECDHERSAWITHAES128GCMSHA256。 购买实例时选择的单AZ,怎样可以扩展为多AZ? 已购买的实例无法扩展AZ,请重新购买多AZ的实例。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        实例问题
      • 批量修改Topic配置(1)
        参数名称 说明 分区数 Topic的分区数。 老化时间 消息的最长保留时间。 副本数 Topic每个分区的副本数量。 同步复制 后端收到生产消息请求并复制给所有副本后,才返回客户端。 同步落盘 开启:生产的每条消息都会立即写入磁盘,可靠性更高。 关闭:生产的消息存在内存中,不会立即写入磁盘。 消息时间戳类型 定义消息中的时间戳类型,取值如下: CreateTime:生产者创建消息的时间。 LogAppendTime:broker将消息写入日志的时间。 批处理消息最大值 Kafka允许的最大批处理大小,如果启用消息压缩,则表示压缩后的最大批处理大小。 如果增加“批处理消息最大值”的值,且存在消费者版本早于0.10.2,此时消费者的“fetch size”值也必须增加,以便消费者可以获取增加后的批处理大小。 描述 Topic的描述信息。
        来自:
      • 触发器事件消息格式
        参数 类型 示例 描述 headers map {"myheader": "100"} 消息的自定义header。 properites map { "deliveryMode": 1, "priority": 0, "type": "mytype" } 消息的自定义属性值。 deliveryTag int 1 消息的tag。 redelivered bool false 消息是否是被重新投递: false:表示这条消息是第一次投递给消费者。 true:表示这条消息是被重新投递的。 exchange string 消息的Exchange。 routingKey string testforfaas 消息的路由key。 body string hello, rabbitmq 消息的内容。
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        触发器事件消息格式
      • 异常
        本文主要介绍异常 异常监控项是对应用的异常日志进行监控,比如java的日志异常监控,一旦用户采用log系统打印日志,就会被采集上来。具体的异常采集类型会根据不同的采集器类型有变化。 查看异常日志 步骤 1 登录管理控制台。 步骤 2 单击左侧,选择“应用性能管理 APM”,进入APM服务页面。 步骤 3 在左侧导航栏选择“应用监控 > 指标”。 步骤 4 在界面左侧树单击待查看接口调用的环境后的。 步骤 5 单击“异常”,切换至异常页签。页面默认展示所“全部实例”的“异常日志”异常日志信息。 异常指标包括:类名、异常类型、日志类型、总次数、消息以及以及异常堆栈。请参照下表 日志版本指标包括:logType以及版本。 图 异常监控数据 表 指标说明 指标集 参数 说明 ::: 异常 类名 发生异常的所在类 异常 异常类型 该异常的类型 异常 日志类型 该异常打印所属的日志类型 异常 次数 异常发生的次数 异常 异常消息 该异常产生的异常消息 异常 异常堆栈 该异常产生的异常堆栈 日志版本 日志类型 日志类型 日志版本 日志版本 日志类型对应的版本 单击蓝色数值,可以查看所选时间段内该线程的趋势图。 单击“消息”列的蓝色文字,可以查看消息的详细内容,包括:时间和消息内容。 单击“异常堆栈”列的“查看详情”可以查看异常的详细信息。 单击“异常堆栈”列的“历史信息”可以查看该类名的历史异常堆栈列表。 单击“版本”列的蓝色文字,可以查看该版本的日志详情。 步骤 6 在异常页签选择您想要查看的“实例名称”,并选择“异常日志”,可以查看该实例在对应采集器下的应用异常监控数据。 图 选择实例、异常日志
        来自:
        帮助文档
        应用性能管理
        用户指南
        应用指标监控
        应用监控详情
        异常
      • 准备实例依赖资源
        准备资源 要求 创建指导 VPC和子网 不同的RocketMQ实例可以重复使用相同的VPC和子网,也可以使用不同的VPC和子网,请根据实际需要进行配置。在创建VPC和子网时应注意如下要求:·创建的VPC与使用的分布式消息服务RocketMQ应在相同的区域。·创建VPC和子网时,如无特殊需求,配置参数使用默认配置即可。 创建VPC和子网的操作指导请参考创建虚拟私有云和子网,若需要在已有VPC上创建和使用新的子网,请参考为虚拟私有云创建新的子网。 安全组 不同的RocketMQ实例可以重复使用相同的安全组,也可以使用不同的安全组,请根据实际需要进行配置。在创建安全组时应注意如下要求:·创建安全组时,“模板”选择“自定义”。·创建安全组后,请保留系统默认添加的入方向“允许安全组内的弹性云服务器彼此通信”规则和出方向“放通全部流量”规则。·使用分布式消息服务RocketMQ必须添加表2所示安全组规则,其他规则请根据实际需要添加。 创建安全组的操作指导请参考创建安全组,为安全组添加规则的操作指导请参考添加安全组规则。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        准备实例依赖资源
      • 入门指引
        本文主要介绍分布式消息服务RabbitMQ的入门指引。 本文将为您介绍分布式消息服务RabbitMQ入门的基本流程,主要包括控制台创建RabbitMQ实例、使用弹性云主机连接实例的操作,帮助您快速上手RabbitMQ。 操作流程 图1 RabbitMQ使用流程 环境准备 RabbitMQ实例运行于虚拟私有云中,在创建实例前需要确保有可用的虚拟私有云。 创建RabbitMQ实例 在创建实例时,您可以选择是否开启SSL访问,开启后,数据加密传输,安全性更高。同时,SSL开关只能在创建实例时设置,实例创建成功后,不支持修改。 连接实例 客户端连接实例,根据实例是否开启SSL开关,存在以下两种场景:不使用SSL证书连接和使用SSL证书连接。 配置必须的监控告警 配置RabbitMQ实例监控告警策略,监控实际业务运行状态。 说明 关于RabbitMQ的相关概念,请参考
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        入门指引
      • 监控告警类
        本章节介绍了有关分布式消息服务RocketMQ监控告警类的常见问题及解答。 云监控无法展示Topic监控数据? 当Topic名称中包含“%”或“”时,在云监控中会将“%”或“”转换为“”显示,例如Topic名称为“test%01”,在云监控中Topic名称显示为“test01”。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        常见问题
        监控告警类
      • 查看Topic
        介绍分布式消息服务Kafka主题列表功能操作内容。 场景描述 Kafka主题列表是Kafka消息队列中的一个重要概念,用于列出所有可用的主题。以下是一些Kafka主题列表的应用场景的描述: 监控和管理:通过查看Kafka主题列表,管理员可以了解当前系统中存在的所有主题。他们可以监控主题的状态、分区数量和副本分布,并进行必要的管理操作,如创建、删除和修改主题。 数据消费者选择:Kafka主题列表可以帮助数据消费者选择他们感兴趣的主题。消费者可以浏览主题列表,找到包含他们需要的数据的主题,并订阅这些主题以接收数据。 数据集成和数据流转:Kafka主题列表可以帮助数据集成和数据流转的过程。数据源可以查看主题列表,确定将数据写入哪些主题。而数据接收方可以查看主题列表,选择他们需要的主题来消费数据。 监控数据流:通过查看Kafka主题列表,监控系统可以了解当前系统中的所有数据流。监控系统可以根据主题列表中的信息,监控每个主题的数据流量、延迟和健康状况,并进行实时的监控和报警。 系统调试和故障排查:Kafka主题列表可以帮助开发人员进行系统调试和故障排查。他们可以查看主题列表,确定消息是否正确地写入和消费,并检查主题的状态和分区情况,以解决潜在的问题。 总之,Kafka主题列表提供了对Kafka消息队列中所有主题的全局视图,帮助管理员、数据消费者和开发人员进行监控、管理和调试。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后即可查看所有Topic的信息。 (5)右上角输入Topic名称,可查询对应Topic。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看Topic
      • 支持的监控指标
        4. 消费组监控 指标ID 指标名称 指标含义 取值范围 单位 partitionmessagesconsumed 分区已消费消息数 该指标用于统计当前消费组指定主题分区已经消费的消息总数。 >0 Count partitionmessagesremained 分区可消费消息数 该指标用于统计当前消费组指定主题分区还可以消费的消息总数。 >0 Count topicmessagesconsumed 主题已消费消息数 该指标用于统计当前消费组指定主题已经消费的消息总数。 >0 Count topicmessagesremained 主题可消费消息数 该指标用于统计当前消费组指定主题还可以消费的消息总数。 >0 Count consumermessagesconsumed 消费组已消费消息数 该指标用于统计当前消费组已经消费的消息总数。 >0 Count consumermessagesremained 消费组可消费消息数 该指标用于统计当前消费组还可以消费的消息总数。 >0 Count consumerrebalancetimes 消费组重平衡次数 该指标用于统计当前消费组重平衡次数。 >0 Count consumermessagesconsumedrate 消费组消费速率 该指标用于统计消费组每秒消费的消息数。 注意:2025年1月及以后购买的实例,支持此监控项。 >0 Count/s topicmessagesconsumedrate 主题消费速率 该指标用于统计主题每秒消费的消息数。 注意:2025年1月及以后购买的实例,支持此监控项。 >0 Count/s messagesconsumedrate 分区消费速率 该指标用于统计主题分区每秒消费的消息数。 注意:2025年1月及以后购买的实例,支持此监控项。 >0 Count/s
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        可观测
        监控信息
        支持的监控指标
      • 延迟消息
        延时消息定义 延时消息 是指消息在发送后不会立即投递给消费者,而是在指定的延迟时间之后才可被消费。 开源 RabbitMQ 本身不直接支持原生延时消息语义 ,但可以通过现有机制组合 或官方插件实现类似能力。 应用场景 延时消息适用于需要定时触发或延迟处理的业务场景,例如: 订单超时关闭 下单成功后发送延时消息,30 分钟后检查支付状态,未支付则关闭订单。 提醒通知 预约活动开始前,通过延时消息发送提醒。 任务调度 延迟执行数据清理、报表生成、状态检查等后台任务。 实现方案对比 方案 实现原理 特点 死信队列(DLX)+ TTL 利用消息或队列 TTL 过期后转入死信交换机,再重新路由到消费队列 无需插件,兼容性好;配置复杂,延迟精度有限 延时消息插件 使用官方延时交换机,消息到期后才进入正常路由流程 使用简单、精度高;需安装插件,存在版本依赖 方案一:死信队列(DLX)+ TTL 实现原理 RabbitMQ 支持为: 消息 设置 TTL(expiration) 队列 设置 TTL(xmessagettl) 当消息到达 TTL 后不会立即删除,而是被投递到死信交换机(Dead Letter Exchange, DLX),再由 DLX 路由到目标队列,从而实现“延迟消费”。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        延迟消息
      • 技术类
        多活容灾是否只要做好入口流量分发和底层数据同步? 否。入口流量分发和底层数据同步是实现多活能力的重要步骤,但并不能完全保证系统具备多活能力。 要具备完整的多活能力,首先做好架构规划与演进,其次要有配套的管控能力,包括集中管理、流量控制、数据同步、数据保护等。 如何保障业务在多活场景下的数据一致性? 默认使用异步复制和最终一致性模型,通过流量纠错和禁写保护避免脏写,有更高要求建议使用分布式数据库。 微服务是如何实现跨集群发现的? 微服务通过注册中心数据同步来实现跨集群服务发现,服务调用时根据路由规则计算路由命中来选择跨单元或跨站点调用。 微服务在多活场景该如何处理? 尽可能单元内自封闭,若无法自封闭,可配置HTTP/DUBBO的解析规则对微服务进行打标,流量通过路由规则计算后实现跨单元调用。 消息在多活场景该如何处理? 生产侧在消息的header或body打标,消费侧根据路由规则进行过滤或接管,消息在站点间同步,避免数据丢失。 缓存在多活场景该如何处理? 应用读写本地缓存集群,缓存本身不建议同步,本地数据中心的缓存不包含其他中心的数据,当流量切换到新中心时可通过数据库重建缓存。 任务调度在多活场景该如何处理? 您可以考虑以下两个方案: 数据双活:2个站点均开启定时任务,捞取全量数据,过滤掉非本单元的数据后再执行。 应用双活:2个站点均开启定时任务,通过配置中心开关控制任务执行的主、备站点角色,由主站点执行全量定时任务。
        来自:
        帮助文档
        应用高可用
        常见问题
        应用容灾多活
        技术类
      • 1
      • ...
      • 14
      • 15
      • 16
      • 17
      • 18
      • ...
      • 487
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      模型推理服务

      一站式智算服务平台

      智算一体机

      推荐文档

      玩转天翼云②:linux系统攻击基本排查方法

      【2019】633号关于调整非经营性互联网信息服务备案编号的通知

      加入会议

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号