云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务MQTT_相关内容
      • 告警配置
        告警策略模板 1. 登录ECX控制台,点击【服务管理>告警管理>告警模板】。 2. 点击【+创建告警模板】可以创建告警策略模板。 3. 通过创建告警策略模板,可以在创建告警策略时,选择对应的模板,快速创建告警策略。 告警消息 1. 登录ECX控制台,点击【服务管理>告警管理>告警消息】。 2. 告警消息版块可以查看所有的告警消息。 3. 如果触发告警的问题已修复,可以对告警消息点击【处理】,告警消息将被标记为【已恢复】。
        来自:
        帮助文档
        智能边缘云
        运维与监控
        告警配置
      • 购买类
        本章节主要介绍翼MapReduce服务的购买类常见问题。 天翼云都有哪些资源池可订购翼MapReduce? 目前翼MapReduce已在华东1、西南1、华北2、上海36、华南2、武汉41、呼和浩特3、南昌5、杭州7、西安7、西南2贵州等一类节点资源池上线,后续会持续扩展更多资源池资源。 翼MapReduce支持什么类型的分布式存储? 翼MapReduce提供目前主流的Hadoop,目前支持Hadoop 3.3.3版本,并且随社区更新版本。 翼MapReduce支持购买哪些业务场景的大数据集群? 翼MapReduce业务场景主要包括6个:数据湖场景、数据分析场景、云搜索场景、数据服务、实时数据流和自定义场景。 场景 描述 数据湖 数据湖分析 提供更灵活、可靠、高效的管理集群,更快的运行大数据计算引擎并提供出色的数据分析能力。 数据分析 数据分析 Apache Doris:开源的MPP架构的OLAP分析引擎,支持亚秒级的数据查询和多表join。 云搜索 云搜索 为结构化/非结构化数据提供低成本、高性能及可靠性的检索、分析服务能力。 数据服务 数据服务 提供更灵活、可靠、高效的数据服务集群。 实时数据流 实时数据流 提供流式计算、消息队列等服务,主要用于实时数据ETL和日志采集分析等场景。 自定义 自定义 提供丰富灵活的服务搭配,支持自行选择业务所需服务。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        购买类
      • 设置实例镜像队列
        本章节主要介绍设置分布式消息服务RabbitMQ实例镜像队列。 镜像队列,允许集群将队列镜像到其他节点上,当集群某一节点宕机后,队列能自动切换到镜像中的其他节点,保证服务的可用性。 如果您需要了解RabbitMQ Web UI相关功能和概念,请自行查阅RabbitMQ官网。本章节仅介绍登录RabbitMQ实例的Web页面设置镜像队列的操作步骤。 操作步骤 步骤 1 登录RabbitMQ实例的Web UI。 步骤 2 在菜单栏,选择“Admin”。 图1 选择Admin菜单 步骤3 (可选)选择右侧导航栏“Virtual Hosts”,然后输入“Name”,单击“Add virtual host”,创建Vhost。 如果您需要设置指定Vhost,请执行本步骤;如果不需要,请直接执行步骤4。 图2 创建Vhost 步骤 4 选择右侧导航栏“Policies”,为Vhost设置规则。 如果为指定的Vhost设置,请在“Virtual Host”选择步骤3创建的Vhost;如果没有,则默认为“/”。 图3 设置Vhost规则 参数解释如下: Name: policy的名称,用户自定义。 Pattern: queue的匹配模式(正则表达式)。 Definition: 镜像定义,包括三个部分hasyncmode、hamode、haparams。 hasyncmode: 表示镜像队列中消息的同步方式,有效取值范围为:automatic和manually。 automatic:表示自动向master同步数据。 manually:表示手动向master同步数据。 hamode: 指明镜像队列的模式,有效取值范围为:all、exactly和nodes。 all:表示在集群所有的节点上进行镜像。 exactly:表示在指定个数的节点上进行镜像,节点的个数由haparams指定。 nodes:表示在指定的节点上进行镜像,节点名称通过haparams指定。 haparams: hamode模式需要用到的参数。 Priority: 可选参数,policy的优先级。 步骤 5 单击“Add policy”。 规则添加成功后如图4所示。 图4 Vhost规则
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        设置实例镜像队列
      • 某交投能源充电桩项目
        本节介绍了云容器引擎的最佳实践:某交投能源充电桩项目。 项目背景 “十四五”以来,某市国资委按照市委市政府决策部署,主动抓抢国家碳达峰、碳中和战略发展机遇,积极谋划布局新能源产业,大力推进“交投能源”充电桩项目建设,提升企业核心竞争力,推动国有企业高质量发展。 该市交投集团抓抢发展机遇,迅速推动全市充电桩一张网建设,拟通过微信小程序入口向市民提供充电服务。该市交投集团通过招标选定某数字能源股份有限公司作为充电方案供应商,并选择天翼云作为该服务平台的云资源服务提供商。 解决方案 容器引擎部署应用服务:采用天翼云容器引擎部署平台应用服务,结合消息队列、分布式缓存等服务和数据库系统组成整体系统。 数据库服务部署核心业务:采用TeleDB for MySQL主备版存储核心业务数据,采用文档数据库存储日志等相关信息。云通信提供短信验证、短信通知等服务。 客户痛点 因客户上线需求紧急,平台软件厂商前期将业务临时部署在友商云上。部署在天翼云上的业务经测试后,需要将业务割接至天翼云。为保障割接万无一致,使用天翼云DTS进行实时同步,保障了割接顺利进行。 该省市公司与云公司组建专业支撑团队,割接时现场支撑保障业务顺利割接。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        客户案例
        某交投能源充电桩项目
      • 产品配置类常见问题
        Web应用防火墙(边缘云版)服务接入网站时未配置的端口是否会有安全风险? Web应用防火墙(边缘云版)支持在域名接入时配置请求协议和回源端口,安全防护节点只会转发来自HTTP/HTTPS请求协议对应端口的业务流量给源站服务器。 Web应用防火墙(边缘云版)安全防护节点不会转发任何未配置端口的请求流量到源站,因此,在接入网站时未配置的端口不会对源站产生任何安全风险。 非天翼云服务器可以使用Web应用防火墙(边缘云版)吗? 非天翼云服务器也可以使用Web应用防火墙(边缘云版)服务。 Web应用防火墙(边缘云版)是一种网络应用防火墙,可以通过检测、过滤和阻止来自互联网的恶意网络流量,保护服务器和应用程序免受各种网络攻击和安全威胁。无论您使用哪种云服务器,只要符合Web应用防火墙(边缘云版)的系统要求,就可以部署和配置防护策略来增强网络安全。采用cname的方式接入服务,与客户的源站类型无关,因此,非天翼云服务器也可以使用Web应用防火墙(边缘云版)服务。 Web应用防火墙(边缘云版)可以支持HTTPS双向认证吗? 单向认证:在 SSL 身份验证中,客户端会收到服务器的证书,客户端可能会尝试将服务器的 CA 与客户端的受信任 CA 列表进行匹配。如果颁发CA是可信的,客户端将验证证书是真实的并且没有被篡改。客户端和服务器在消息交换之前都使用9次握手消息来建立加密通道。 双向认证:双向 SSL 身份验证中,客户端和服务器都通过数字证书相互验证,以便双方都确信对方的身份。客户端和服务器在消息交换之前都使用12次握手消息来建立加密通道。 Web应用防火墙(边缘云版)支持HTTPS双向认证。双向认证包括边缘双向认证以及回源双向认证,如果您有该需求,可以联系我们进行后台配置。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        常见问题
        产品配置类
        产品配置类常见问题
      • 回收站
        分布式消息服务Kafka实例回收站可展示到期、已退订的实例,您可以在回收站对这些实例执行恢复、彻底销毁等操作。 说明 回收站功能目前为白名单特性,如需要使用该特性,请联系技术支持开通后使用。 注意事项 根据付费方式的不同,当实例到期或欠费后,各时间节点对应的影响有所不同。更多信息,请参见续费、到期与欠费。 一旦实例到达被彻底销毁的时间点或者执行销毁实例操作后,实例中的数据将被彻底销毁且无法找回。 操作步骤 1. 登录管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在左侧菜单导航栏,单击【回收站】。 4. 在回收站的实例列表中,根据业务需求执行目标实例操作列中对应的操作: 操作 说明 恢复 跳转到恢复实例页面,用户续订后,完整恢复退订前所有数据,按所选续订时长从恢复时间起自动顺延实例到期时间。 销毁 彻底删除实例及其数据备份。 ⚠️注意:执行该操作后,实例的数据将被彻底删除且无法找回,请谨慎操作。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        回收站
      • 操作日志
        本章节介绍应用容灾多活的操作日志功能。 前提条件 已创建应用系统。 查看操作日志 1. 登录应用高可用服务控制台。 2. 单击左侧菜单栏应用容灾多活 ,在应用容灾多活菜单下单击数据双活/应用双活 ,进入数据双活/应用双活管理页面。 3. 在应用系统列表中找到需要配置的应用系统,单击应用系统名称 ,进入应用系统概览页。 4. 在左侧导航栏选择运维监控 ,在运维监控菜单下单击操作日志,进入操作日志页面。 5. 操作日志包含下表信息,单击日志行右侧详情按钮,可以查看操作详情。 表 操作分类 操作分类 具体操作 描述 基础配置 新增应用系统 新增应用系统 删除应用系统 删除应用系统 修改应用系统 修改应用系统 新增站点 创建站点 删除站点 删除站点 修改站点 修改站点 启用站点 启用站点 禁用站点 禁用站点 重置站点 重建站点业务数据,在故障站点恢复正常后操作 新增单元 新增单元 删除单元 删除单元 修改单元 修改单元 新增单元组 新增单元组 删除单元组 删除单元组 修改单元组 修改单元组 接入层配置 选择接入层网关 绑定接入层网关 移除接入层网关 解绑接入层网关 新增单元组URI配置 新增业务流量路由 删除单元组URI配置 删除业务流量路由 修改单元组URI配置 修改业务流量路由 数据层配置 新增数据源 新增数据层数据源 删除数据源 删除数据层数据源 修改数据源 修改数据层数据源 新增同步任务 新增数据同步任务 删除同步任务 删除数据同步任务 修改同步任务 修改数据同步任务 启动同步任务 启动数据同步任务 停止同步任务 停止数据同步任务 绑定链路 绑定同步链路与数据传输服务实例 解绑链路 解绑同步链路与数据传输服务实例 启动链路 启动同步链路所绑定任务 停止链路 停止同步链路所绑定任务 消息层配置 新增数据源 新增消息层数据源 删除数据源 删除消息层数据源 修改数据源 修改消息层数据源 新增同步任务 新增消息同步任务 删除同步任务 删除消息同步任务 修改同步任务 修改消息同步任务 启动同步任务 启动消息同步任务 停止同步任务 停止消息同步任务 创建路由任务配置 创建消息路由任务配置 删除路由任务配置 删除消息路由任务配置 创建路由任务 创建路由任务 删除路由任务 删除路由任务 启用路由任务 启用路由任务 停用路由任务 停用路由任务 重置位点 重置目标实例消费位点 容灾切流 基础配置推送 发起基础配置推送 流量切换 发起流量切换 主备切换 发起主备切换 取消步骤 取消切流过程指定步骤 忽略步骤 跳过切流过程指定步骤 重试步骤 重试切流过程指定步骤 表 操作状态 状态 描述 成功 操作成功 失败 操作失败 执行中 操作进行中
        来自:
        帮助文档
        应用高可用
        用户指南
        应用容灾多活
        运维监控
        操作日志
      • 手工搭建Hadoop环境(Linux)
        本文主要介绍如何手工搭建Hadoop环境(Linux)。 简介 本文介绍了如何在天翼云上使用弹性云主机的Linux实例手工搭建Hadoop环境。Hadoop是一款由Apache基金会用Java语言开发的分布式开源软件框架,用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的能力进行高速运算和存储。Hadoop的核心部件是HDFS(Hadoop Distributed File System)和MapReduce: HDFS:是一个分布式文件系统,可对应用程序数据进行分布式储存和读取。 MapReduce:是一个分布式计算框架,MapReduce的核心思想是把计算任务分配给集群内的服务器执行。通过对计算任务的拆分(Map计算和Reduce计算),再根据任务调度器(JobTracker)对任务进行分布式计算。 前提条件 已购买一台弹性云主机,且已为其绑定弹性公网IP。 弹性云主机所在安全组添加了如下表所示的安全组规则。 方向 类型 协议 端口/范围 源地址 入方向 IPv4 TCP 8088 0.0.0.0/0 入方向 IPv4 TCP 50070 0.0.0.0/0 实施步骤 1、安装JDK a.登录弹性云主机。 b.执行以下命令,下载jdk软件包。 以jdk17为例,在列表中查看可用的JDK软件包版本,以jdk17linuxx64bin.tar.gz安装包为例,执行以下命令。 wget c.解压jdk安装包到opt目录下。 tar xvf jdk17linuxx64bin.tar.gz C /opt/ d.配置环境变量。 vim /etc/profile e.在底部添加以下内容。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        手工搭建Hadoop环境(Linux)
      • 创建安全报告
        参数名称 参数说明 取值样例 报告名称 默认的报告名称。 ecs security report 报告类型 报告的统计周期类型名称。 安全日报(统计周期为每天00:0024:00) 安全周报(统计周期为周一00:00周日24:00) 安全月报(统计周期为每月1号00:00月度最后一天24:00) 自定义报告(自定义统计周期,周期范围应介于1天(包含)至3个月(包含)之间。 所有类型报告将在生成后的次日自动发送至您设置的报告接收人。 安全月报 报告发送时间 报告自动发送时间。 报告接收方式 生成的安全报告接收方式。 消息中心:使用消息中心和其它安全服务共同使用“安全事件通知”的信息接收人。需登录控制台,在右上角信箱查看。 消息主题:为HSS单独创建的主题,设置告警通知接收人。可选择短信或邮件接收通知。 无需发送到邮箱:不发送报告至邮箱。 消息中心
        来自:
        帮助文档
        企业主机安全
        用户指南
        安全报告
        创建安全报告
      • 术语解释
        HDFS HDFS(Hadoop Distributed File System)是Hadoop生态系统的一个重要组成部分,是Hadoop中的的存储组件。它是一个分布式文件系统,提供对应用程序数据的高吞吐量访问。 Hive Hive数据仓库软件通过SQL实现对分布式存储中的大型数据集的读写和管理。Hive提供命令行工具和JDBC驱动程序连接用户。Hive对SQL语句编译和解析,生成相应的MapReduce任务对数据进行操作。 Kafka Apache Kafka是一个优秀的分布式事件流平台,被广泛用于高性能数据管道、流分析、数据集成和任务关键型应用程序中。 Kerberos Hadoop使用Kerberos作为用户和服务的强身份验证和身份传播的基础。Kerberos是一种计算机网络认证协议,它允许某实体在非安全网络环境下通信,向另一个实体以一种安全的方式证明自己的身份。 Kerberos是第三方认证机制,其中用户和服务依赖于第三方(Kerberos服务器)来对彼此进行身份验证。 Kibana Kibana是一个开源的数据分析和可视化平台,它被设计用于与Elasticsearch协同工作。您可以使用Kibana对Elasticsearch索引中的数据进行搜索、查看和交互操作。 Kyuubi Kyuubi是一个提供JDBC/ODBC SQL查询能力的分布式SQL引擎管理者,主要是为Spark Thrift Server提供多租户以及HA能力,同时为其他引擎(例如Flink或Trino等)提供SQL等查询服务。 OpenLDAP OpenLDAP是轻型目录访问协议(Lightweight Directory Access Protocol,LDAP),通过IP协议提供访问控制和维护分布式信息的目录信息。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        术语解释
      • 事件流概述
        随着越来越多的数据源持续、快速地产生数据,此类流式数据急需被系统分析和处理。事件流适用于端到端的流式数据处理场景,对源端产生的事件实时抽取、转换和分析并加载至目标端,帮助您轻松处理流式数据。 事件流总体架构 事件流作为更轻量、实时端到端的流式事件通道,提供轻量流式数据的过滤和转换的能力,在不同的数据仓库之间、数据处理程序之间、数据分析和处理系统之间进行数据同步,连接不同的系统与服务。 如下图所示,事件源与事件目标之间无需定义事件总线,事件通过事件流这个通道在源端和目标端之间进行流转。 事件源:事件的来源,可将天翼云服务如分布式消息Kafka的业务数据作为事件流中的事件提供方。 事件过滤:事件流通过事件模式过滤事件并将事件路由到事件目标,事件模式必须和匹配的事件具有相同的结构。 事件转换:可选择天翼云函数计算作为事件转换器,您可以通过编写函数代码对事件进行更复杂、更加定制化的处理。 事件目标:消费事件消息。 功能优势 实时高效 事件流支持实时从事件源获取、过滤与转换事件,并加载至事件目标。无需定义事件总线,您可以更快地访问事件。 轻量集成 只需在控制台简单创建任务或者一次调用,即可建立实时端到端的流式事件通道,避免了复杂繁琐的操作,便于快速集成。 指标监控 事件流提供多个指标,您可以使用这些指标监控数据流的运行状况,出现异常时及时运维,确保数据流正常运行。 节约成本 按量计费,按照数据量进行计费,不使用则不收费。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件流概述
      • 响应消息头
        本章主要介绍响应消息头。 调用API时,API网关增加如下响应消息头。 XApigMode: debug表示响应消息头增加API网关调试信息。 响应消息头 描述 说明 ::: XRequestId 请求ID 所有合法请求,都会返回此参数 XApigLatency 从API网关接收请求到后端返回消息头的用时 仅在请求消息头包含XApigMode: debug时,返回此参数 XApigUpstreamLatency 从API网关请求后端到后端返回消息头的用时 仅在请求消息头包含XApigMode: debug,且后端服务类型不为Mock时,返回此参数 XApigRateLimitapi API流量控制信息 示例:remain:9,limit:10,time:10 second 仅在请求消息头包含XApigMode: debug,且API配置了API流量控制时,返回此参数 XApigRateLimituser 用户流量限制信息 示例:remain:9,limit:10,time:10 second 仅在请求消息头包含XApigMode: debug,且API配置了用户流量限制时,返回此参数 XApigRateLimitapp 应用流量限制信息 示例:remain:9,limit:10,time:10 second 仅在请求消息头包含XApigMode: debug,且API配置了应用流量限制时,返回此参数 XApigRateLimitip 源IP流量限制信息 示例:remain:9,limit:10,time:10 second 仅在请求消息头包含XApigMode: debug,且API配置了源IP流量限制时,返回此参数 XApigRateLimitapiallenv API默认流控信息 示例:remain:199,limit:200,time:1 second 仅在请求消息头包含XApigMode: debug时,返回此参数
        来自:
        帮助文档
        API网关
        调用API网关
        调用已发布的API
        响应消息头
      • 仪表盘
        指标 指标含义 可消费消息数 队列中已经准备好等待消费者去获取和处理的消息数量。 连接数 当前与 RabbitMQ 服务器建立的 TCP 连接总数。每个生产者或消费者客户端都需要与 RabbitMQ 建立一个 TCP 连接。 信道数 在所有 TCP 连接上打开的 AMQP 信道总数。信道是在 TCP 连接内部建立的虚拟连接,用于多路复用,以减少建立和关闭 TCP 连接的开销。 消费者数 当前所有队列上注册的消费者总数。一个消费者可以监听一个或多个队列。 交换器生产速率 单位时间内发送到某个交换器的消息数量。 交换器消费速率 单位时间内从某个交换器路由到其绑定队列的消息数量。 队列生产速率 单位时间内发送到某个队列的消息数量。 队列消费速率 单位时间内从某个队列成功投递给消费者并收到确认(ACK)的消息数量。 队列可消费消息数 某个队列中当前处于 "Ready" 状态的消息数量。 队列消费者数 当前正在监听某个队列的消费者数量。 VHost连接数 当前连接到某个特定 VHost 的 TCP 连接总数。 VHost信道数 当前在某个特定 VHost 的所有连接上打开的信道总数。 VHost每个连接的信道数 某个 VHost 的信道总数除以其连接总数得到的平均值。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        仪表盘
      • 服务授权
        权限名 详细信息 备注 Tenant Administrator (全局服务) DLI Flink作业访问和使用OBS或者DWS数据源、日志转储(包括桶授权)、开启checkpoint、作业导入导出等,需要获得访问和使用OBS(对象存储服务)的Tenant Administrator权限。 由于云服务缓存需要时间,该权限60分钟左右才能生效。 DIS Administrator DLI Flink作业访问和使用DIS数据源,需要获得访问和使用DIS(数据接入服务)的DIS Administrator权限。 由于云服务缓存需要时间,该权限30分钟左右才能生效。 VPC Administrator DLI跨源连接需要使用VPC、子网、路由、对等连接功能,因此需要获得使用VPC(虚拟私有云)的VPC Administrator权限。 由于云服务缓存需要时间,该权限3分钟左右才能生效。 SMN Administrator DLI作业执行失败需要通过SMN发送通知消息,因此需要获得访问和使用SMN(消息通知服务)的SMN Administrator权限。 由于云服务缓存需要时间,该权限3分钟左右才能生效。
        来自:
        帮助文档
        数据湖探索
        用户指南
        全局配置
        服务授权
      • 应用性能管理
        本文主要介绍应用性能管理 应用性能管理服务(Application Performance Management,简称APM)是实时监控并管理云应用性能和故障的云服务,提供专业的分布式应用性能分析能力,可以帮助运维人员快速解决应用在分布式架构下的问题定位和性能瓶颈等难题,为用户体验保驾护航。 通过云审计服务,您可以记录与APM服务相关的操作事件,便于日后的查询、审计和回溯。 表云审计服务支持的APM操作列表 操作名称 资源类型 事件名称 删除应用 APM clearApps 设置事务别名 APM setAlias 更新虚机服务分组 APM updateVirtualService 更新事务配置 APM updateTxTypeSettings 更新拓扑Apdex阈值 APM updateThresholds 设置事务分组 APM txtypeGroupOperation 删除应用配置 apm deleteAppGroup 更新采集开关配置 apm setAppPpswitcherConfig 更新智能采样配置 apm setAppCallChainConfig 更新内存检测机制配置 apm setAppMwsConfig 更新日志增加TraceID配置 apm setAppLogTransacConfig 更新SQL分析开关配置 apm setAppSqlConfig 更新忽略HTTP响应代码或忽略错误和异常配置 apm setAppIgnoreConfig
        来自:
        帮助文档
        云审计
        用户指南
        支持审计的服务及详细操作列表
        管理与部署
        应用性能管理
      • Go
        ssl消费消息 plaintext package main import ( "crypto/tls" "crypto/x509" "flag" "fmt" amqp "github.com/rabbitmq/amqp091go" "io/ioutil" "log" "time" ) var ( uri flag.String("uri", "amqps://USERNAME:PASSWORD@10.10.33.196:5671", "AMQP URI") exchange flag.String("exchange", "testexchange", "Durable, nonautodeleted AMQP exchange name") exchangeType flag.String("exchangetype", "direct", "Exchange type directfanouttopicxcustom") queue flag.String("queue", "testqueue", "Ephemeral AMQP queue name") bindingKey flag.String("key", "testkey", "AMQP binding key") consumerTag flag.String("consumertag", "simpleconsumer", "AMQP consumer tag (should not be blank)") lifetime flag.Duration("lifetime", 5time.Second, "lifetime of process before shutdown (0sinfinite)") ) func init() { flag.Parse() } func main() { c, err : NewConsumer(uri, exchange, exchangeType, queue, bindingKey, consumerTag) if err ! nil { log.Fatalf("%s", err) } if lifetime > 0 { log.Printf("running for %s", lifetime) time.Sleep(lifetime) } else { log.Printf("running forever") select {} } log.Printf("shutting down") if err : c.Shutdown(); err ! nil { log.Fatalf("error during shutdown: %s", err) } } type Consumer struct { conn amqp.Connection channel amqp.Channel tag string done chan error } func NewConsumer(amqpsURI, exchange, exchangeType, queueName, key, ctag string) (Consumer, error) { c : &Consumer{ conn: nil, channel: nil, tag: ctag, done: make(chan error), } var err error log.Printf("dialing %q", amqpsURI) caCert, err : ioutil.ReadFile("D:codeTestamqpexamplessslcacertificate.pem") if err ! nil { return nil, err } cert, err : tls.LoadX509KeyPair("D:codeTestamqpexamplessslclientopenstackcertificate.pem", "D:codeTestamqpexamplessslclientopenstackkey.pem") if err ! nil { return nil, err } rootCAs : x509.NewCertPool() rootCAs.AppendCertsFromPEM(caCert) tlsConf : &tls.Config{ RootCAs: rootCAs, Certificates: []tls.Certificate{cert}, //ServerName: "localhost", // Optional InsecureSkipVerify: true, } c.conn, err amqp.DialTLS(amqpsURI, tlsConf) if err ! nil { return nil, fmt.Errorf("Dial: %s", err) } go func() { fmt.Printf("closing: %s",
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        开发指南
        Go
      • 如何实现RabbitMQ的高性能
        本节介绍了如何实现RabbitMQ的高性能。 使用较小的队列长度 队列中存在大量消息时,会给内存使用带来沉重的负担,为了释放内存,RabbitMQ会将消息刷新到磁盘。这个过程通常需要时间,由于需要重建索引,重启包含大量消息的集群非常耗时。当刷盘的消息过多时,会阻塞队列处理消息,从而降低队列速度,对RabbitMQ节点的性能产生负面影响。 要获得最佳性能,应尽可能缩短队列。建议始终保持队列消息堆积的数量在0左右。 对于经常受到消息峰值影响的应用程序,和对吞吐量要求较高的应用程序,建议在队列上设置最大长度。这样可以通过丢弃队列头部的消息来保持队列长度,队列长度永远不会大于最大长度设置。 在队列声明时使用对应参数设置。 java //创建队列 HashMap map new HashMap<>(); //设置队列最大长度 map.put("xmaxlength",10 ); //设置队列溢出方式保留前10 map.put("xoverflow","rejectpublish" ); channel.queueDeclare(queueName,false,false,false,map); 当队列长度超过设置的最大长度时,RabbitMQ的默认做法是将队列头部的信息(队列中最老的消息)丢弃或变成死信。可以通过设置不同的overflow值来改变这种方式,如果overflow值设置为drophead,表示从队列前面丢弃或deadletter消息,保存后n条消息。如果overflow值设置为rejectpublish,表示最近发布的消息将被丢弃,即保存前n条消息。 自动删除不再使用的队列 客户端可能连接失败导致队列被残留,大量的残留队列会影响实例的性能。RabbitMQ提供三种自动删除队列的方法: 在队列中设置TTL策略:例如TTL策略设置为28天,当持续28天队列未被使用时,此队列将被删除。 使用autodelete队列:当最后一个消费者退出或通道/连接关闭(或与服务器的TCP连接丢失)时,autodelete队列会被删除。 使用exclusive queue:exclusive queue只能在创建它的连接中使用,当此连接关闭或消失时,exclusive queue会被删除。 设置方法如下: java boolean exclusive true; boolean autoDelete true; channel.queueDeclare(QUEUENAME, durable, exclusive, autoDelete, arguments);
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        如何实现RabbitMQ的高性能
      • 分布式存储架构及可扩展性
        相比于传统的集中式数据库,分布式数据被分散存储在多个物理位置(多台服务器或数据中心)上,并将这些分散的存储资源构成一个虚拟的存储设备。这种存储方式不仅实现在线扩容能力,同时也提升了数据的检索能力。而且分布式数据库利用SQL语言进行分布式查询和处理,使其性能和扩展性得到显著提升。 分布式数据存储原理 分布式存储架构通常由三个部分组成:客户端、元数据服务器(协调节点)和数据服务器(数据节点)。其主要流程是:客户端负责发送读写请求,缓存文件元数据和文件数据。元数据服务器(协调节点)管理元数据和处理客户端的请求。数据服务器(数据节点)存放文件数据,保证数据的可用性和完整性。分布式存储主要通过以下几种方式实现: 数据分片‌:在分布式存储系统中,数据被分成多个部分,每个部分存储在不同的数据节点上,以实现数据的分布式存储和管理。这种分片通常使用哈希函数或一致性哈希算法来实现。 主备复制‌:为了提高数据的可靠性和可用性,分布式存储系统通常分为主备节点。每个数据都存储在不同的数据节点上,以确保即使某些节点出现故障,仍然可以从其他节点中恢复数据。 数据一致性‌:确保数据在不同节点之间的一致性是分布式存储系统的关键。为了实现数据同步和管理,分布式存储系统使用数据同步和管理机制,如Paxos算法、Raft算法或ZooKeeper等分布式协调服务。 数据访问‌:在分布式存储系统中,数据可以并行地从多个节点中读取和写入,以提高读写性能和吞吐量。数据访问使用负载均衡机制实现,如分布式哈希表、分布式缓存或分布式文件系统等技术。 通过这种存储方式可实现TeleDB在线扩容能力,在业务无感知的情况下,在线弹性伸缩,提升系统容量和处理能力,以便满足大规模存储应用的需求。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式存储架构及可扩展性
      • 业务消息设计:Topic与Tag
        Topic与Tag释义 1)Topic:消息主题,通过 Topic 对不同的业务消息进行分类。 2)Tag:消息标签,用来进一步区分某个Topic下的消息分类,消息队列 RocketMQ允许消费者按照Tag对消息进行过滤,确保消费者最终只消费到他关注的消息类型。 Topic与Tag都是业务上用来归类的标识,区分在于Topic是一级分类,而Tag 可以说是二级分类。 适用场景 什么时候该用topic,什么时候该用tag,可以参考下面的一些考虑进行权衡 考虑消息类型:如普通消息、顺序消息,事务消息、定时(延时)消息,不同消息类型是无法通过tag区分的,这种情况就需要我们创建不同的topic。 业务关联性:如果是不同业务之间没有直关联的消息,建议按照Topic进行区分;而同一个业务只是子类型不一样的消息可以用Tag进行区分。 消息优先级:不同的业务场景可能会导致消费端对于消息的优先级需求不同,有的紧急,有的相对来说对于延时的接收程度更大,不同优先级的消息用不同的Topic进行区分。 消息量级:如果量小但延时要求高的消息,跟超大量级(如万亿)的消息使用同一个Topic,则有可能排队时间过长导致延时无法接受,所以不同量级的消息不要使用不同的tag,需要用不同的Topic。 总结起来就是,在消息分类实践中,有创建多个Topic,以及在同一个Topic下创建多个Tag两种常见做法。一般来说,不同的Topic之间的消息不产生直接业务上的关联,而同一个topic下相互之间产生联系的消息可以选择用tag来区分,一般是相同业务下的不同板块不同类型。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        业务消息设计:Topic与Tag
      • 消息查询
        场景描述 RocketMQ查询消息信息的作用如下: ● 监控消息状态:通过查询消息信息,可以实时监控消息的状态,包括消息是否已被消费、消费进度、重试次数等。这有助于及时发现消息消费异常或延迟等问题,以便进行及时处理和调整。 ● 故障排查与追踪:通过查询消息信息,可以帮助定位消息消费失败的原因,如消费者异常、网络故障等。同时,还可以追踪消息的消费路径,了解消息从生产到消费的流程,方便排查故障和进行问题定位。 ● 统计与分析:通过查询消息信息,可以进行消息的统计和分析,如消息的发送量、消费量、消费延迟等。这有助于了解系统的消息处理情况,评估系统的性能和稳定性,以便进行相应的优化和改进。 ● 数据同步与恢复:通过查询消息信息,可以了解消息的发送时间、内容和关键字等信息,方便进行数据的同步和恢复。当系统发生故障或数据丢失时,可以通过查询消息信息来恢复数据,并确保数据的一致性和完整性。 综上所述,通过查询RocketMQ中的消息信息,可以实现消息的监控、故障排查、统计分析以及数据同步与恢复等功能,为系统的稳定运行和数据管理提供了重要的支持。 操作步骤 1、 进入管理控制台消息查询菜单。 2、 下拉选择集群名称和broker名称。 3、 提供五种查询消息的方式:按key,按ID,按偏移量,基于Topic查询,死信队列查询。 根据Key查询 根据消息的key查询消息列表,key要求尽可能全局唯一。 点击“查看”,可以查询该消息的包体内容。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        管理消息
        消息查询
      • 为什么发送给Topic的消息在分区中分布不均衡?
        本节介绍Kafka 发送给Topic的消息在分区中分布不均衡原因 问题现象 发送消息到某个Topic后,该Topic下部分分区消息比较多,部分分区消息少,甚至没有。 可能原因 发送消息时指定了分区,导致未指定的分区没有消息。 发送消息时指定了消息Key,按照对应的Key发送消息至对应的分区,导致分区消息不均衡。 通过代码重新实现了分区分配策略,但策略逻辑有问题,导致分区消息不均衡。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        为什么发送给Topic的消息在分区中分布不均衡?
      • 告警历史
        本页介绍分布式融合数据库HTAP的告警历史功能。 告警历史简介 在告警历史页面,可查看告警历史记录,支持对历史告警消息进行查询与搜索。 操作场景 用户可以通过控制台的“管理中心告警中心告警历史”中查看实例的异常触发告警的历史记录,告警历史包括用户开通的所有类型的数据库实例的告警历史,可通过筛选查询所需的历史记录。 操作步骤 搜索历史告警消息,可通过复杂查询筛选对应条件的告警历史。查询参数包括: 时间范围 告警类型 告警级别 告警状态 指定实例名称或主机IP 告警历史记录包含信息有: 告警对象:区分不同数据库类型的实例 实例名称/实例ID:实例的名称和ID。 发生时间:告警触发时间节点。 持续时间:告警持续的时长。 策略名称:触发告警的策略名称。 告警详情:触发告警的场景详细信息。 告警级别:告警等级,包括普通、告警、紧急三种告警等级,紧急程度从小到大逐步增加。 状态:告警状态,包括告警中、被抑制、静默中、已恢复四种状态。
        来自:
        帮助文档
        分布式融合数据库HTAP
        用户指南
        告警服务
        告警历史
      • 运行日志查询
        本节主要介绍如何进行实例配置管理 管理控制台提供Redis实例运行日志查询,可查询redis节点的运行日志。通过查询运行日志,可进行故障排查、性能监控、运维管理等。当Redis出现异常、错误或崩溃时,通过查看日志可以获取关于故障发生的详细信息,帮助定位问题的根本原因。日志中可能包含错误消息、警告、异常堆栈跟踪等,有助于开发人员或运维人员迅速定位和修复故障。 前提条件 已成功开通分布式缓存服务Redis实例,且实例处于运行中状态。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情页面。 4. 点击左侧 日志管理>运行日志,进入运行日志页面。 5. 选择具体Redis节点,即可查看所选节点下的运行日志情况。 6. 点击下载日志,选择日期和Redis节点,可下载运行日志到本地。下载日志仅支持下载最近7天中的其中1天。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例诊断分析
        运行日志查询
      • 查询订阅组详细状态信息
        接口功能介绍 查询订阅组详细状态信息 接口约束 无 URI GET /v3/consumer/status 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 prodInstId 是 String 实例ID groupName 是 String 订阅组名字 clientId 是 String 客户端ID 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池编码 200000002368 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 接口系统层面状态码。成功:800,失败:900 800 message String 描述状态 returnObj Object 返回对象 returnObj error String 错误码,只有非成功才有这个字段,方便快速定位问题 201 表 returnObj 参数 参数类型 说明 示例 下级对象 data Object 消费组详情数据 data 表 data 参数 参数类型 说明 示例 下级对象 properties Object 消费组配置属性 properties subscriptionSet Array of Objects 订阅关系集合 subscriptionSet mqTable Object 消息队列信息表 mqTable statusTable Object 消费状态统计表 statusTable jstack String 线程堆栈信息 null 表 properties 参数 参数类型 说明 示例 下级对象 maxReconsumeTimes String 最大重试次数 1 adjustThreadPoolNumsThreshold String 线程池数量调整阈值 100000 unitMode String 单元模式开关 false consumeTimeoutInSec String 消费超时时间(秒) 1 timeoutStrategy String 超时处理策略 ALARMANDRETRY consumerGroup String 消费组名称 group messageModel String 消息模型 CLUSTERING allocateMessageQueueStrategy String 消息队列分配策略 org.apache.rocketmq.client.consumer.rebalance.AllocateMessageQueueAveragely@14978a04 pullThresholdSizeForTopic String 主题拉取大小阈值 1 suspendCurrentQueueTimeMillis String 队列挂起时间(毫秒) 1000 pullThresholdSizeForQueue String 队列拉取大小阈值 100 PROPCLIENTVERSION String 客户端版本 V283CTG offsetStore String 偏移量存储实现类 org.apache.rocketmq.client.consumer.store.RemoteBrokerOffsetStore@64668c91 consumeConcurrentlyMaxSpan String 并发消费最大跨度 2000 postSubscriptionWhenPull String 拉取时提交订阅关系开关 false consumeTimestamp String 消费时间戳 20220831110532 PROPCONSUMETYPE String 消费类型 CONSUMEPASSIVELY consumeMessageBatchMaxSize String 批量消费最大消息数 1 defaultMQPushConsumerImpl String 推送消费者实现类 org.apache.rocketmq.client.impl.consumer.DefaultMQPushConsumerImpl@6470d9c8 PROPTHREADPOOLCORESIZE String 线程池核心大小 20 pullInterval String 拉取间隔(毫秒) 0 pullThresholdForQueue String 队列拉取阈值 1000 pullThresholdForTopic String 主题拉取阈值 1 consumeFromWhere String 消费起始位置 CONSUMEFROMFIRSTOFFSET PROPNAMESERVERADDR String 名称服务地址 192.168.71.188:8411; pullBatchSize String 拉取批次大小 32 consumeThreadMin String 最小消费线程数 20 PROPCONSUMERSTARTTIMESTAMP String 消费者启动时间戳 1661916932150 consumeThreadMax String 最大消费线程数 64 consumeTimeout2 String 消费超时时间2(秒) 15 subscription String 订阅关系 {} PROPCONSUMEORDERLY String 顺序消费开关 false messageListener String 消息监听器实现类 com.ctg.mq.api.impl.MQConsumerImpl$ConsumerTopicListenerImpl@677658a0 表 subscriptionSet 参数 参数类型 说明 示例 下级对象 classFilterMode Boolean 类过滤模式开关 false topic String 订阅主题 test subString String 订阅表达式 tagsSet Array of Strings 标签集合 [] codeSet Array of Strings 代码集合 [] subVersion Long 订阅版本号 1661916951326 expressionType String 表达式类型 null filterClassSource String 过滤类源码 null 表 mqTable 参数 参数类型 说明 示例 下级对象 commitOffset Long 提交偏移量 6 cachedMsgMinOffset Long 缓存消息最小偏移量 0 cachedMsgMaxOffset Long 缓存消息最大偏移量 0 cachedMsgCount Integer 缓存消息数量 0 cachedMsgSizeInMiB Integer 缓存消息大小(MiB) 0 transactionMsgMinOffset Long 事务消息最小偏移量 0 transactionMsgMaxOffset Long 事务消息最大偏移量 0 transactionMsgCount Integer 事务消息数量 0 locked Boolean 是否锁定 false tryUnlockTimes Integer 解锁尝试次数 0 lastLockTimestamp Long 最后锁定时间戳 1661916951284 droped Boolean 是否删除 false lastPullTimestamp Long 最后拉取时间戳 1661929388688 lastConsumeTimestamp Long 最后消费时间戳 1661916951284 表 statusTable 参数 参数类型 说明 示例 下级对象 pullRT Integer 拉取响应时间(毫秒) 0 pullTPS Integer 拉取TPS 0 consumeRT Integer 消费响应时间(毫秒) 0 consumeOKTPS Integer 消费成功TPS 0 consumeFailedTPS Integer 消费失败TPS 0 consumeFailedMsgs Integer 消费失败消息数 0
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        订阅组管理
        查询订阅组详细状态信息
      • 产品规格
        专属云Kafka的产品服务与公有云Kafka的产品规格保持一致,由两种服务资源组成,队列规格、队列存储。 其中队列计算规格按消息队列基准带宽分为4种分别是:100MB/s、300MB/s、600MB/s、1200MB/s; 存储类型分2种,分别如下:高I/O、超高I/O。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        计费说明
        产品规格
      • 产品定义
        本节介绍了云数据库GaussDB的产品定义及架构。 云数据库GaussDB 是分布式关系型数据库。该产品具备企业级复杂事务混合负载能力,同时支持分布式事务,同城跨AZ部署,支持1000+的扩展能力,PB级海量存储。同时拥有云上高可用,高可靠,高安全,弹性伸缩,一键部署,快速备份恢复,监控告警等关键能力,能为企业提供功能全面,稳定可靠,扩展性强,性能优越的企业级数据库服务。 GaussDB分布式形态整体架构 GaussDB 分布式形态整体架构如下: Coordinator Node:协调节点CN,负责接收来自应用的访问请求,并向客户端返回执行结果;负责分解任务,并调度任务分片在各DN上并行执行。 GTM:全局事务管理器(Global Transaction Manager),负责生成和维护全局事务ID、事务快照、时间戳、Sequence信息等全局唯一的信息。 Data Node:数据节点DN,负责存储业务数据(支持行存、列存、混合存储)、执行数据查询任务以及向CN返回执行结果。 GaussDB主备版形态整体架构 GaussDB 主备版形态整体架构如下: ETCD:分布式键值存储系统(Editable Text Configuration Daemon)。用于共享配置和服务发现(服务注册和查找)。 CMS:集群管理模块(Cluster Manager)。管理和监控分布式系统中各个功能单元和物理资源的运行情况,确保整个系统的稳定运行。 Data Node:数据节点DN,负责存储业务数据(支持行存、列存、混合存储)、执行数据查询任务以及返回执行结果。
        来自:
        帮助文档
        云数据库GaussDB
        产品简介
        产品定义
      • 产品类
        顺序消息和普通消息的区别是什么 最大的区别在于是否能保证消息生产和消费的顺序一致。 对于顺序消息,消息均根据ShardingKey进行区块分区,同一分区内的消息消费满足先进先出,保证分区有序,不同分区的消息消费顺序不做要求。 普通消息则没有该项保证,消息消费的顺序跟生产的顺序不一定保证一致性。 RocketMQ集群消费和广播消费区别是什么 使用集群消费模式时,MQ内任意一条消息只需被订阅组集群内的任意一个消费者消费即可。 使用广播消费模式时,MQ内每条消息都会投递到订阅组集群的所有消费者,每条消息至少被每个消费者消费一次。 多个订阅组订阅同一个主题时消息如何被消费 RocketMQ中订阅关系并非是一对一的,一个主题可以被一个或多个订阅组订阅,但不同订阅组之间的消费是互不影响的,它们各自维护自己在当前主题的消费偏移信息,每一条消息都会被订阅该主题的订阅组接收到。 消息消费失败是否会有重试机制 在push消费模式下,RocketMQ在消费者消费消息失败后会通过将消息重新投递到该订阅组的重试队列在一定时间后会被消费者重新消费到,如果多次失败则会多次重复上述的重试过程,超过最大次数之后(创建订阅组时可配置)会将消息投递到死信队列。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        常见问题
        产品类
      • 通过MsgId查询消息
        参数 参数类型 说明 示例 下级对象 brokerName String Broker名称 broker1 queueId Integer 队列ID 0 storeSize Integer 存储大小 1240 queueOffset Integer 队列偏移量 0 sysFlag Integer 系统标识 0 bornTimestamp Long 消息生成时间戳 1763433803612 bornHost String 消息生成主机地址及端口 192.168.1.138:63894 storeTimestamp Long 消息存储时间戳 1763433803618 storeHost String 消息存储主机地址及端口 192.168.1.140:9600 msgId String 消息唯一标识 C0A8018C00002580000000257833D8FF commitLogOffset Long 提交日志偏移量 160930453759 bodyCRC Integer 消息体CRC校验值 183478142 reconsumeTimes Integer 重新消费次数 0 preparedTransactionOffset Integer 预处理事务偏移量 0 topic String 消息主题 topicTest properties Object 消息属性集合 properties messageBody String 消息体内容 WebTestTools status String 消息状态 TOCONSUME messageBodyPath String 消息体路径 null bodySize Integer 消息体大小 1024 表 properties
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        消息管理
        通过MsgId查询消息
      • 管理消息与新建系统公告
        此小节介绍云堡垒机管理消息与新建系统公告。 消息中心是系统内各类消息接收提示管理中心。系统公告是对系统用户广播系统内重大变更的消息提醒。 管理消息列表 消息中心小窗可呈现最新三条未读消息。任务执行完成后,则可在任务中心查看全部任务。 消息类型共有5种,分别包括系统消息、业务消息、任务消息、命令告警、工单消息。 消息级别共有3种,分别包括“高”、“中”、“低”,消息级别越高代表消息重要程度越高。 本小节主要介绍如何在消息中心查看、删除、标记消息。 查看消息提醒 1. 登录云堡垒机系统。 2. 单击右上角,展开消息中心小窗口, 可查看最新三条未读消息。 3. 单击“查看更多”,进入消息中心列表页面。 4. 查询消息,在搜索框中输入关键字,根据消息标题内容快速查询消息。 5. 查看消息列表。消息按发生时间顺序倒序排列,可查看全部已读、未读的消息 。 6. 查看消息详情。单击目标消息名称,进入消息详情页面。 删除消息提醒 1. 登录云堡垒机系统。 2. 单击右上角,展开消息中心小窗口,可查看最新三条未读消息。 3. 单击“查看更多”,进入消息中心列表页面。 4. 勾选一条或多条消息,单击左下角“删除”,弹出删除消息确认窗口。 5. 单击“确定”,即可立即删除选中消息。消息删除后不可找回,请谨慎操作。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统桌面
        管理消息与新建系统公告
      • API发布
        本章主要介绍API发布常见问题。 对API的修改是否需要重新发布? API发布后,如果再次编辑API参数,需要重新发布才能将修改后的信息同步到环境中。 API发布到RELEASE环境可以正常访问,发布到非RELEASE环境无法访问? API发布到非RELEASE环境,添加xstage请求消息头后即可访问, 例如: r.Header.Add("xstage", "RELEASE") API发布到不同环境后,会调用不同的后端服务吗? 使用环境变量,或者在后端服务定义不同的参数,可以实现API发布到不同环境时,调用不同的后端服务。 API调试的时候,如何指定环境? 不能指定。API控制台提供的调试功能,用的是特定的debug环境,调试完成后需先发布到对应环境,之后可使用代码或者postman等工具,并添加请求消息头XStage,才能访问指定环境。
        来自:
        帮助文档
        API网关
        常见问题
        API发布
      • 支持的监控指标
        操作场景 天翼云分布式消息Kafka自集成了一整套监控方案,对Kafka实例的运行状态进行日常监控,可以通过管理控制台查看Kafka实例各项监控指标。各项监控指标可以分为实例监控、实例节点监控、主题监控、消费组监控和Connect监控,各项监控指标的具体细节如下表所示。 操作前提 已开通天翼云Kafka实例,且实例状态为“运行中” Kafka 实例是天翼云Ⅱ类资源池实例,目前Ⅱ类资源池包括:华东1、上海36、华北2、长沙42、武汉41、西安7、杭州7、青岛20、西南1、西南2、广州4、郑州5、华南2等 监控指标 监控项的数据聚合周期为1分钟,即1分钟计算一次,计算出来每秒字节数。您可以将该数据理解为一分钟内的平均值。 1. 实例监控 指标ID 指标名称 指标含义 取值范围 单位 currentbrokers 存活节点数 该指标用于统计Kafka实例中正常运行的实例节点数 0~50 Count currenttopics 主题数 该指标用于统计Kafka实例中已经创建的主题数量。 0~2000 Count currentpartitions 分区数 该指标用于统计Kafka实例中已经使用的分区数量。 0~2000 Count groupmsgs 堆积消息数 该指标用于统计Kafka实例中所有消费组中总堆积消息数。 >0 Count instancebytesinrate 生产流量 该指标用于统计Kafka实例中每秒生产的字节数。 >0 MB/s instancebytesoutrate 消费流量 该指标用于统计Kafka实例中每秒生产的字节数。 >0 MB/s instancemessagesinrate 消息生产速率 该指标用于统计实例每秒生产的消息数。 >0 Count/s instancemessagesoutrate 消息消费速率 该指标用于统计实例每秒消费的消息数。 注意:2025年1月及以后购买的实例,支持此监控项。 >0 Count/s instancerequestqueuesize 实例请求队列长度 该指标用于统计实例请求队列长度。 >0 Count instanceresponsequeuesize 实例响应队列长度 该指标用于统计实例响应队列长度。 >0 Count instanceconnectionusage 实例连接数使用率 该指标用于统计实例连接数使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancetopicusage 实例用户主题数使用率 该指标用于统计实例租户主题使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancepartitionusage 实例用户主题分区数使用率 该指标用于统计实例租户主题分区使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancegroupusage 实例用户消费组数使用率 该指标用于统计实例租户消费组使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instanceproducelimit 实例生产限流次数 该指标用于统计实例生产限流次数 注意:2025年6月及以后购买的实例,支持此监控项。 >0 Count instanceconsumelimit 实例消费限流次数 该指标用于统计实例消费限流次数 注意:2025年6月及以后购买的实例,支持此监控项。 >0 Count
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        可观测
        监控信息
        支持的监控指标
      • 自建Apache Kafka事件目标
        您可以通过事件规则过滤事件,将事件路由到自建Apache Kafka服务。本文以自定义事件为例介绍将事件路由到自建Apache Kafka的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权 创建自定义总线服务 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,在左侧导航栏,单击事件规则,然后单击添加事件规则。 3. 在添加事件规则页面,完成以下操作。 1. 在配置基本信息配置向导,在名称文本框输入规则名称,在描述文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式配置向导,选择匹配全部事件,然后单击下一步。 3. 在配置事件目标 配置向导,配置事件目标,事件目标服务类型选择自建Apache Kafka,目标参数描述如下,然后单击创建。 参数说明 参数 说明 示例 接入点 Apache Kafka集群broker接入点,由IP与端口号拼接而成,以逗号分隔。 172.17.0.25:9092,192.17.0.26:9092,172.17.0.27:9092 Topic topic名称。 topic1 网络配置 根据业务场景选择对应配置。 专有网络 公网网络 专有网络 VPC 网络配置选择专有网络时必填,选择集群所在的VPC。 vpc 子网 网络配置选择专有网络时必填,选择集群所在的子网。 subnet 认证模式 选择认证模式。 PLAINTEXT SASLPLAINTEXT 用户名:填写SASL用户名 密码:填写SASL密码 SASL鉴权方式:可选PLAIN和SCRAMSHA512 PLAINTEXT 消息体 选择消息体(Body)的内容,更多信息请参考事件内容转换。 完整事件 消息键值 选择消息键值(Key)的内容,更多信息请参考事件内容转换。 空
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        自建Apache Kafka事件目标
      • 1
      • ...
      • 21
      • 22
      • 23
      • 24
      • 25
      • ...
      • 531
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      推荐文档

      JAVA API

      文档下载

      入门教程⑤:策略路由

      绑定和解绑弹性IP

      EIP解绑和批量解绑

      实名认证流程?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号