云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RabbitMQ版_相关内容
      • 查看监控数据
        本章节介绍了如何查看分布式消息服务RocketMQ实例的各项监控指标。 操作场景 云监控对RocketMQ实例的运行状态进行日常监控,可以通过控制台直观的查看RocketMQ实例各项监控指标。 前提条件 已购买RocketMQ实例。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 选择以下任意一种方法查看监控数据。 在待查看监控数据的实例所在行,单击。 单击RocketMQ实例的名称,进入实例详情页面。在左侧导航栏,单击“实例监控”。 3. 在“实例监控”页面,查看实例、节点、主题、消费组和死信队列的监控数据。 聚合是指云监控服务在一定周期内对原始采样指标数据进行最大、最小、平均、求和或方差值的计算,并把结果持久化的过程。这个计算周期又叫聚合周期。 4. (可选)在监控页面,您可以自行选择哪些监控指标需要展示,以及对监控指标进行排序。 例如,在“节点”页签中,只需要展示“消息生产数”和“消息消费数”,请按照如下步骤操作。 a. 在“节点”页签下,单击“设置”,弹出“设置”页面。 b. 勾选“消息生产数”和“消息消费数”,单击“确定”。 图1 设置监控指标 c. 监控指标设置成功后,选中监控指标,并拖动到需要展示的位置,完成监控指标的排序。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        监控
        查看监控数据
      • 删除消息
        本文主要介绍如何在控制台删除消息。 操作场景 说明 消息删除后无法恢复,请谨慎操作。 前提条件 删除消息前,请先在客户端中设置“auto.offset.reset”参数。“auto.offset.reset”用来指定当Kafka中没有初始偏移量或者当前偏移量不存在(例如当前偏移量已被删除)时,消费者的消费策略。取值如下: latest:偏移量自动被重置到最晚偏移量。 earliest:偏移量自动被重置到最早偏移量。 none:向消费者抛出异常。 操作步骤 1. 登录管理控制台。 2. 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 4. 单击Kafka实例名称,进入实例详情页面。 5. 在左侧导航栏选择“Topic管理”,进入Topic列表页面。 6. 在待删除消息的Topic所在行,单击“消息删除”,弹出“消息删除”对话框。 7. 设置消息删除参数,如下表所示。 图消息删除 表 消息删除参数说明 参数 说明 分区 选择消息所在的分区编号。 偏移量 输入偏移量,此偏移量之前的数据将被删除。 说明 如果“偏移量”设置为“1”,表示删除分区中所有的消息。 如果您输入的偏移量不在指定分区的最早偏移量和最晚偏移量之间,消息将不会被删除。 如果需要删除多个分区的消息,单击“添加分区”,设置需要删除消息的分区和偏移量。每次最多可选择10个分区。 8. 单击“确定”,弹出“清理结果”对话框,单击“确定”,完成消息的删除。 图 清理结果
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消息管理
        删除消息
      • 查看示例代码
        本文主要介绍查看示例代码。 本章节指导您在控制台查看Java、Go和Python生产消费消息的示例代码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 单击“查看示例代码”,弹出“生产消费示例代码”对话框。 查看Java、Go和Python生产消费消息的示例代码。示例代码区分是否开启SASLSSL认证,“接入类型”为“PLAINTEXT”时,表示未开启SASLSSL认证。“接入类型”为“SASLSSL”时,表示已开启SASLSSL认证。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看示例代码
      • 日志处理工具Logstash接入Kafka
        本文主要介绍日志处理工具Logstash接入Kafka。 最佳实践概述 场景描述 Kafka与Logstash互联,可实现将Kafka作为inputs把消息传递给Logstash进行处理、或者是作为outputs将Kafka用作消息目的地。 技术架构图 暂无。 方案优势 可以异步处理数据:防止突发流量。 解耦:当发生异常的时候不会影响上游工作。 前提条件 需已购买Kafka实例、创建Topic,并且已成功消费消息。 资源规划 本实践方案内容仅涉及Kafka专享版实例和Logstash。 分布式消息服务 Figure 分布式消息服务 资源类型 配置项 配置明细 说明 :::: 企业中间件 DMS Kafka专享实例 需已购买kafka专享实例,创建好Topic,并成功消费消息。 Logstash下载与安装 下载并安装Logstash,验证运行成功。 方案正文 配置Kafka 1、登录分布式消息服务Kafka版控制台,按需要单击“实例名称”,进入实例基本信息页面。 图 Kafka控制台实例列表 2、在“连接地址”模块,获取Kafka连接IP地址。 图 连接IP地址与端口 3、创建Logstashtest的Topic。 图 创建Topic
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        日志处理工具Logstash接入Kafka
      • 服务内联委托
        应用场景 注意:在以下场景需要获取其他云服务资源的访问权限。 分布式消息服务RocketMQ 应用多活功能需要查询分布式消息服务RocketMQ实例信息、同步分布式消息服务RocketMQ数据,因此需要获取访问分布式消息服务RocketMQ服务的权限。 关系数据库MySQL版 应用多活功能需要查询关系数据库MySQL版实例信息,因此需要获取访问关系数据库MySQL版服务的权限。 关系数据库PostgreSQL版 应用多活功能需要查询关系数据库PostgreSQL版实例信息,因此需要获取访问关系数据库PostgreSQL版服务的权限。 数据传输服务DTS 应用多活功能需要通过数据传输服务DTS同步数据库数据,因此需要获取访问数据传输服务DTS服务的权限。 微服务引擎云原生网关 应用多活功能需要向微服务引擎云原生网关推送多活规则,因此需要获取访问微服务引擎云原生网关服务的权限。 微服务引擎注册配置中心 应用多活功能需要微服务引擎注册配置中心管理多活规则,因此需要获取访问微服务引擎注册配置中心服务的权限。 服务内联委托说明 登录系统控制台时,系统会检查当前账号是否已有服务内联委托adtsadmin ,如果不存在则会弹出提示,在您确认授权后,系统自动创建服务内联委托adtsadmin 并授权应用高可用委托授权管理员权限策略。 创建完成后,您可以在IAM控制台的角色管理页面、API或CLI调用ListDelegates 获取委托列表的返回结果中查看已创建的服务内联委托。您还可以登录系统控制台,如果可以正常使用则表示已成功创建服务内联委托。 注意 如果没有adtsadmin服务内联委托权限,可能会因为某个服务权限不足而影响系统功能的正常使用。 请不要自行删除或者修改adtsadmin委托以及应用高可用委托授权管理员权限策略。
        来自:
        帮助文档
        应用高可用
        用户指南
        应用容灾多活
        权限管理
        服务内联委托
      • 执行流程
        执行流程概述在创建流程后,您可以通过多种方式触发、执行流程,并在执行后查看执行结果 流程支持以下触发方式:手动触发:在云工作流控制台直接启动流程。定时触发:设置定时任务,按照指定的时间周期自动执行流程 执行流程 概述 在创建流程后,您可以通过多种方式触发、执行流程,并在执行后查看执行结果 流程支持以下触发方式: 手动触发:在云工作流控制台直接启动流程。 定时触发:设置定时任务,按照指定的时间周期自动执行流程。 队列消息触发:通过将消息发送至消息队列来触发工作流流程。 事件触发:通过监听其他天翼云服务(如对象存储、云日志等)的事件来触发工作流流程。 HTTP触发:通过调用云工作流的API接口来启动流程。 本文将以云工作流控制台为例,演示如何执行流程并查看结果。 操作步骤 1. 登录云工作流控制台,然后在顶部菜单栏选择 地域(可选)。 2. 在左侧导航栏,选择 工作流列表 ,然后在 工作流列表页面,单击目标工作流。 3. 在工作流详情页面的 执行记录页 签,单击 启动执行 。在执行工作流面板,填写 执行名称 (可选)和 执行输入 (可选),然后单击 确定。 1. 注意事项: 若填写执行输入,需为合法 JSON 对象格式。 1. 执行完成后,您可在执行历史详情页中查看每个节点的执行结果、输入、输出、执行时间等详细信息,以确认流程按预期完成。 执行结果的详细介绍请参见工作流执行管理。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        快速入门
        执行流程
      • SDK概述
        本文介绍了分布式消息服务RocketMQ版提供的SDK语言版本。 SDK列表 下表提供了分布式消息服务RocketMQ版支持的SDK列表。 编程语言 参考文档 :: Java 开发指南Java Python 开发指南Python Go 开发指南Go C++ SDK参考C++ .NET SDK参考.NET PHP SDK参考PHP
        来自:
        帮助文档
        分布式消息服务RocketMQ
        SDK参考
        SDK概述
      • RocketMQ性能白皮书
        测试场景 本章节主要测试RocketMQ不同产品规格在发送1KB大小的消息,实例的网络入流量、网络出流量、消息生产速率、消息消费速率、CPU核均负载和内存使用率。 测试环境 购买实例 名称 规格 存储空间 rocketmq01 c7.xlarge.2 4C8G 超高I/O 500GB rocketmq02 c7.2xlarge.2 8C16G 超高I/O 500GB rocketmq03 c7.4xlarge.2 16C32G 超高I/O 500GB 控制台创建主题 名称 权限 关联代理 队列个数 topic01 发布+订阅 broker1 8 控制台创建消费组 名称 关联代理 最大重试次数 是否允许以广播模式消费 group01 broker1 16 否 测试工具准备 购买1台ECS服务器(区域、可用区、虚拟私有云、子网、安全组与RocketMQ实例保持一致,Linux系统),安装jdk,并配置环境变量 tar zxvf jdk8u131linuxx64.tar.gz vi /etc/profile 追加以下内容 export JAVAHOME/root/jdk1.8.0131 export PATH$JAVAHOME/bin:$PATH 生效配置 source /etc/profile 下载测试工具 wget 解压测试工具 unzip rocketmqall5.1.4binrelease.zip 测试命令
        来自:
        帮助文档
        分布式消息服务RocketMQ
        性能白皮书
        RocketMQ性能白皮书
      • 连接未开启SASL的Kafka专享实例
        目前提供Kafka专享版实例的服务,Kafka专享版实例采用物理隔离的方式部署,租户独占Kafka实例。创建Kafka专享版实例之后,使用开源Kafka客户端向Kafka专享版实例生产消息和消费消息。 本章节介绍如何使用开源的Kafka客户端访问未开启SASL的Kafka专享实例方法。 多语言客户端使用请参考Kafka官网: 说明:Kafka服务器允许客户端单IP连接的个数为200个,如果超过了,会出现连接失败问题。 前提条件 已配置正确的安全组。 访问未开启SASL的Kafka专享实例时,支持VPC内访问。实例需要配置正确的安全组规则,具体安全组配置要求,请参考下表。 已获取连接Kafka专享版实例的地址。 使用VPC内访问,实例端口为9092,实例连接地址获取如下图。 获取VPC内访问Kafka专享实例的连接地址(实例未开启SASL) Kafka专享实例已创建Topic,否则请提前创建Topic。 已下载Kafka命令行工具1.1.0版本或者Kafka命令行工具2.3.0版本,确保Kafka实例版本与命令行工具版本相同。 已在Kafka命令行工具的使用环境中安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 以下操作命令以Linux系统为例进行说明: 解压Kafka命令行工具。 进入文件压缩包所在目录,然后执行以下命令解压文件。 tar zxf [kafkatar] 其中,[kafkatar]表示命令行工具的压缩包名称。 例如: tar zxf kafka2.111.1.0.tgz 进入Kafka命令行工具的“/bin”目录下。 注意,Windows系统下需要进入“/bin/windows”目录下。 执行如下命令进行生产消息。 ./kafkaconsoleproducer.sh brokerlist ${连接地址} topic ${Topic名称} 参数说明如下: 连接地址:从前提条件中获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 以获取的Kafka实例连接地址为“10.3.196.45:9092,10.78.42.127:9092,10.4.49.103:9092”为例。执行完命令后输入内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin]
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        用户指南
        连接未开启SASL的Kafka专享实例
      • 流数据实时处理框架Flink接入Kafka
        本文主要介绍流数据实时处理框架Flink接入Kafka 。 最佳实践概述 场景描述 如果您想要在流数据实时处理场景下,使用Kafka作为流数据的源或者使用Kafka作为流数据的目的,需要将Kafka与Flink对接,可以参考本实践方案。 技术架构图 暂无。 方案优势 用户可按业务需要,参考设置Kafka与Flink框架对接,实现流数据的消息消费。 前提条件 需已购买Kafka实例、创建Topic,并且已成功消费消息。 资源规划 本实践方案内容仅涉及Kafka专享版实例和Flink的安装配置。 分布式消息服务 Figure 分布式消息服务 资源类型 配置项 配置明细 说明 :::: 企业中间件 DMS Kafka专享实例 需已购买kafka专享实例,创建好Topic,并成功消费消息。 Flink流数据处理框架 Figure Flink框架 资源类型 配置项 配置明细 说明 :::: 应用软件 Flink框架 Flink 1.14 使用开源Apache Flink 方案正文 获取Kafka访问地址 1、登录分布式消息服务Kafka版控制台,按需要单击“实例名称”,进入实例基本信息页面。 图 Kafka控制台实例列表 2、在“连接地址”模块,获取Kafka连接IP地址。 图 连接IP地址与端口
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        流数据实时处理框架Flink接入Kafka
      • 【重要】默认安全组策略优化调整
        为了进一步提升云服务的安全性,加强实例访问的默认保护机制,对新创建RabbitMQ实例的默认安全组策略进行优化调整。 调整内容 自本公告发布之日起,新开通RabbitMQ实例使用的安全组未配置vpc内入方向安全组规则,将默认禁止同VPC内访问RabbitMQ实例服务端口。此变更旨在遵循最小权限安全原则,降低因配置疏忽导致的安全风险。 影响说明 若您使用的安全组未进行额外配置,新建的实例将无法被同VPC内的云主机访问。 应对措施 如需恢复VPC内访问,请您手动配置安全组规则,具体操作如下: 在安全组入方向规则中添加以下策略: 授权策略:允许。 协议类型:TCP。 端口范围:RabbitMQ实例服务端口。 源地址:您的VPC网段(如:192.168.0.0/16)。 配置完成后,同VPC内的云主机即可正常访问RabbitMQ实例服务。 建议 为保障业务安全,建议您根据实际需求精确设置访问源IP或网段,避免开放不必要的访问权限。 此次调整仅影响新创建的实例,已有实例的访问策略保持不变,不受此次调整影响。感谢您对云服务安全的支持与理解。如有疑问,请联系技术支持。 特此公告。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        服务公告
        2025年
        【重要】默认安全组策略优化调整
      • 安全方案
        身份认证 CTIAM 统一身份认证(Identity and Access Management, 简称:CTIAM)是提供用户进行权限管理的基础服务,可以帮助您安全的控制天翼云服务和资源的访问及操作权限,包括:用户身份认证、权限分配、访问控制等功能。具体介绍请参考统一身份认证产品介绍。 您可以创建IAM用户,并为其设置关分布式消息服务MQTT实例权限,该用户就可以通过用户名和密码访问授权的实例资源。具体请参见统一身份认证快速入门创建IAM用户。 访问控制 权限控制 购买分布式消息服务MQTT实例之后,您可以使用CTIAM为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,通过CTIAM进行精细的权限管理。 VPC和子网 虚拟私有云(Virtual Private Cloud,VPC)为分布式消息服务MQTT构建隔离、私密的虚拟网络环境,提升消息队列的安全性,并简化用户的网络部署。您可以完全掌控自己的专有网络,VPC丰富的功能帮助您灵活管理云上网络,包括创建子网、设置安全组和网络ACL、管理路由表、申请弹性公网IP和带宽等。通过子网与其他网络隔离,独享网络资源,提高网络安全性。具体内容请参见虚拟私有云用户指南创建虚拟私有云和子网 。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        安全方案
      • 概览
        本文将为您介绍Web应用防火墙(边缘云版)的概览页。 网站接入边缘云WAF防护并新增域名成功后,系统将会自动为您捕获网站的业务数据及受攻击数据,您可以通过概览页面查询近24小时带宽峰值、请求数量、QPS、域名数量以及各种攻击行为的检测数据,帮助您了解网站当前的整体情况。 若您想知道更详细的网站安全相关报表,可见安全分析报表。 若您想知道更详细的网站业务相关报表,可见站点分析报表。 前提条件 网站已经成功接入边缘云WAF防护,您可以通过【域名列表】是否含有已启用域名来确认。具体操作请见WAF接入。 操作步骤 1. 登录Web应用防火墙(边缘云版)控制台,进入左侧导航栏【概览页面】。 2. 将自动为您查询近24小时的数据。 3. 概览页主要提供三个部分的数据查看:消息中心、业务统计数据、安全防护数据。 查询消息中心 概览页面顶部具备消息通知栏,支持查看威胁消息、域名配置信息以及系统消息。 威胁消息。展示互联网已经公布和尚未披露的0 day漏洞信息,您可以查看漏洞对网站是否有影响,如果受到漏洞的影响,可以联系天翼云安全专家沟通具体的解决方案,联系方式见服务保障。 域名消息。在此模块展示域名配置的相关消息,域名新增/停用或者配置下发后,可以在此查看域名的配置情况,配置成功将会形成新消息。 系统消息。即系统公告,展示更新说明、版本发布、边缘云WAF功能相关动态等信息。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        安全运营
        概览
      • Logstash对接Kafka
        介绍Logstash对接Kafka具体内容。 应用场景 通过Logstash对接Kafka,可以实现以下功能: 1. 数据收集:Logstash可以从Kafka主题中消费数据,将数据从Kafka集群中获取到Logstash中进行处理和转发。这样可以方便地将分布式系统、应用程序、传感器数据等各种数据源的数据集中收集起来。 2. 数据处理和转换:Logstash提供了丰富的过滤器插件,可以对从Kafka中消费的数据进行各种处理和转换操作。例如,可以进行数据清洗、解析、分割、合并、字段映射等操作,以满足不同数据源和目标的数据格式要求。 3. 数据传输和转发:Logstash可以将处理后的数据发送到不同的目标位置,如Elasticsearch、MySQL、文件系统、消息队列等。通过配置适当的输出插件,可以将数据传输到目标系统,以便后续的数据分析、存储、可视化等操作。 4. 实时数据处理:Logstash与Kafka结合使用,可以实现实时的数据处理和传输。Kafka作为高吞吐量的消息队列,可以确保数据的高效传输和缓冲。而Logstash作为数据处理引擎,可以对从Kafka中消费的数据进行实时处理,满足实时数据分析和监控的需求。 5. 分布式部署和负载均衡:Logstash支持分布式部署,可以通过配置多个Logstash节点来实现高可用性和负载均衡。多个Logstash节点可以同时从Kafka主题中消费数据,并进行并行处理和转发,以提高整体系统的性能和吞吐量。 总之,通过Logstash对接Kafka,可以实现灵活、可扩展和高效的数据处理和传输。Logstash提供了丰富的插件和配置选项,可以根据实际需求进行定制化的数据处理流程。同时,Logstash还具有良好的可扩展性和可靠性,适用于各种规模和类型的数据处理场景。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Logstash对接Kafka
      • 云审计服务支持的MQTT操作列表
        关键操作列表 操作事件 读写类型 剔除客户端 写事件 退订客户端主题 写事件 启动mqtt服务 写事件 查询实例服务器列表 写事件 添加第三方认证授权插件 写事件 修改第三方认证授权插件 写事件 删除第三方认证授权插件 写事件 启用第三方认证授权插件 写事件 卸载第三方认证授权插件 写事件 新增认证用户 写事件 修改密码 写事件 删除认证用户 写事件 新增用户ACL 写事件 删除用户ACL 写事件 删除认证用户 写事件 服务端发送消息至MQTT队列 写事件
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的MQTT操作列表
      • 网络异常自动恢复(1)
        由于服务端升级、服务端重启、网络抖动等原因,服务端和客户端的网络连接可能会断开。本文介绍如何在客户端设置Connection和Topology自动恢复,使Connection和Topology在网络连接断开后自动恢复,避免断连对业务造成影响。 触发原因 触发Connection自动恢复的原因如下: Connection的I/O抛出异常。 Socket读取操作超时。 检测到服务端心跳丢失。 恢复方法 4.0.0及以上版本Java客户端默认开启Connection和Topology自动恢复,无需在代码中设置。 在客户端开启Connection和Topology(Queue、Exchange、Binding、Consumer)自动恢复的方法如下: factory.setAutomaticRecoveryEnabled(boolean):用于开启或关闭Connection自动恢复。 factory.setNetworkRecoveryInterval(long):用于设置重试时间间隔。如果Connection自动恢复异常,设置了Connection自动恢复的客户端将在一段固定时间间隔(默认为5秒)后重试。 factory.setTopologyRecoveryEnabled(boolean):用于开启Topology自动恢复。Topology包括Queue、Exchange、Binding、Consumer。 示例代码 开启Connection和Topology自动恢复的客户端示例代码如下: ConnectionFactory factory newConnectionFactory(); // 设置接入点,在分布式消息服务RabbitMQ控制台实例详情页面获取。 factory.setHost("192.168.x.x"); // 设置Vhost名称 factory.setVirtualHost("/"); // 端口 factory.setPort(5672); // 基于网络环境设置合理的超时时间。 factory.setConnectionTimeout(301000); factory.setHandshakeTimeout(301000); factory.setShutdownTimeout(0); // 开启Connection自动恢复。 factory.setAutomaticRecoveryEnabled(true); // 设置Connection重试时间间隔为10秒。 factory.setNetworkRecoveryInterval(10000); // 开启Topology自动恢复。 factory.setTopologyRecoveryEnabled(true); Connection connection factory.newConnection(); 恢复限制 Connection自动恢复的限制如下: Connection断开需要一定的时间检测。要确保这段时间内发送的消息不丢失,需使用Publisher Confirms实现可靠发送。 Channel异常导致Connection断开时,不会触发Connection自动恢复。Channel异常通常为应用级别的问题,需要使用方自行处理。 Connection自动恢复不会使Channel也自动恢复。
        来自:
      • ALM-14022 NameNode RPC队列平均时间超过阈值
        可能原因 NameNode节点的CPU性能不足,导致NameNode无法及时处理消息。 NameNode所设置的内存太小,频繁Full GC造成JVM卡顿。 NameNode配置参数不合理,导致NameNode无法充分利用机器性能。 HDFS的业务访问量太大,超过了NameNode的负载能力。 处理步骤 获取该告警的信息 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在告警列表中找到该告警。 2.单击该告警,查看下面的告警详情。从“产生时间”可知该告警的触发时间;从“定位信息”中的“主机名”信息可知发出该告警的NameNode节点主机名;从“定位信息”中的NameServiceName信息可知发出该告警的NameService名称。 查看是否阈值设置过低 3.查看依赖于HDFS的业务的运行状态是否正常运行。查看是否存在运行慢、执行任务超时的情况。 是,执行步骤8。 否,执行步骤4。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HDFS”,单击图表区域右上角的下拉菜单,单击“定制”,在弹出的对话框中选择“主NameNode RPC队列平均时间”,单击“确定”。 5.查看“主NameNode RPC队列平均时间”监控中,获取发出告警的NameService的当前的监控值。 6.在FusionInsight Manager首页,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > HDFS”,找到“主NameNode RPC队列平均时间”,单击default规则中“操作”栏中的“修改”,修改“阈值”为当前监控值的150%。单击“确定”,保存新阈值。 7.等待1分钟,查看该告警是否自动消除。 是,处理结束。 否,执行步骤8。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14022 NameNode RPC队列平均时间超过阈值
      • Kafka磁盘选择超高IO还是高IO?
        本节介绍分布式消息服务Kafka磁盘类型 选择Kafka磁盘类型主要取决于应用的需求和预算。通常,对于Kafka来说,高IO磁盘是更常见的选择,因为它提供了更好的性能和吞吐量。 高IO磁盘具有更快的随机读写速度和更低的访问延迟。这对于Kafka来说非常重要,因为Kafka的性能和吞吐量受限于磁盘的读写速度。高IO磁盘适用于需要处理大量读写操作的场景,例如高频率的消息传递和数据写入。它可以提供更快的消息处理和更低的延迟,从而提高系统的响应性能。 超高IO磁盘也是一个可选的方案,它提供了更高的随机读写速度和更低的延迟,相对于传统的高IO磁盘来说性能更好。超高IO磁盘适用于对性能要求非常高的场景,例如大规模的实时数据处理和高吞吐量的消息队列。它可以提供更高的IOPS(每秒输入/输出操作数)和更低的延迟,从而支持更快的数据处理和更高的系统吞吐量。 综上所述,对于Kafka来说,一般情况下选择高IO磁盘是比较常见的选择,因为它提供了良好的性能和吞吐量。但如果预算允许,超高IO磁盘可以提供更高的性能和吞吐量,适用于对性能要求非常高的场景。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        计费与购买类
        Kafka磁盘选择超高IO还是高IO?
      • 监控项说明
        监控指标 说明 默认监控周期 默认监控频率 CPU 实例的CPU使用率,包括: sys(CPU运行于核心态时的使用率) 、usr(CPU运行于用户态时的使用率)。 1小时 1分钟 内存 实例的内存利用率,包括: 机器内存利用率 、数据库具体的内存使用情况。 1小时 1分钟 磁盘 实例相关的磁盘性能指标,包括:磁盘利用率、Iops:每秒读写操作数、每秒读写流量(kb) 、磁盘平均队列长度。 1小时 1分钟 连接 实例连接相关的指标,包括:连接数、连接数使用率。 1小时 1分钟 TPSQPS 数据库的读写相关性能指标,包括: 指令command操作数 、查询query操作数 、插入insert操作数 、删除delete操作数 、更新update操作数 、getmore操作数。 1小时 1分钟 请求 数据库的请求相关指标,包括:活跃写请求(Active Write)、活跃读请求(Active Read)、排队写请求(Queue Write)、排队读请求(Queue Read)。 1小时 1分钟 网络 实例的网络请求数量、流量。 1小时 1分钟 全局锁 实例当前等待全局锁的队列长度,包括:全局读锁的等待队列长度、全局写锁的等待队列长度、所有全局锁的等待队列长度。 1小时 1分钟 游标 实例当前使用的cursor数,包括:当前cursor打开数量、cursor超时数量。 1小时 1分钟 缺页错误数 进程每秒页面错误率。 1小时 1分钟 断言 包括:每秒平均增加的常规断言率 、每秒平均警告率 、每秒平均消息率 、每秒平均用户断言率。 1小时 1分钟 wiredtiger 存储引擎相关指标,包括: wiredtiger内存数据量 、wiredtiger内存脏数据量 、wiredtiger磁盘读入内存量 、wiredtiger内存写入磁盘量、Cache使用百分比、Cache脏数据百分比。 1小时 1分钟 oplog(副本集独有) 包括:主节点oplog可用时间 、主节点oplog生成速率 、主备oplog重叠时长 、主备延时。 1小时 1分钟
        来自:
        帮助文档
        文档数据库服务
        用户指南
        监控管理
        监控项说明
      • 连接实例
        本文为您介绍分布式消息服务MQTT的快速入门连接实例。 创建用户名和密码 终端设备连接MQTT队列需要先创建用户密码。 1、 天翼云官网点击控制中心,选择产品分布式消息服务MQTT。 2、 登录分布式消息服务MQTT控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入认证授权菜单,点击【新增】按钮,在弹出框输入认证用户名、用户密码、确认密码等信息。 主题授权 对用户名进行主题授权,客户端方可正常收发。 1、 选择需要授权的用户,点击【授权】按钮。 2、 在弹出框填写已创建的主题名称,主题权限包含3种:pub、sub、pubsub,支持通配符, 代表所有主题。 绑定公网IP 公网接入若未绑定弹性公网ip需先进行购买弹性ip并进行绑定。 弹性IP是可以独立申请的公网 IP 地址,包括公网IP地址与公网出口带宽服务。可以与分布式消息服务MQTT动态绑定和解绑,实现云资源的互联网访问。针对需要公网访问分布式消息服务MQTT实例的需求,用户可开通弹性IP后,在MQTT实例页面进行绑定。 1、 进入实例列表,点击【管理】按钮进入管理菜单。 2、 在实例详情查看公网IP,点击【绑定】按钮,选择已购买的弹性IP。 弹性ip带宽大小计算规则可参照:带宽 报文大小TPS 120%,建议按120%购买,应对突发流程。如规格,报文大小1KB,TPS 2W/s,则带宽2000010008160Mb/s,建议200Mb/s。
        来自:
        帮助文档
        分布式消息服务MQTT
        快速入门
        连接实例
      • 配置DMS Kafka连接
        本章节主要介绍配置DMS Kafka连接。 连接DMS的Kafka队列时,相关参数详见下表:DMS Kafka连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 dmslink 服务类型 选择DMS Kafka版本,目前只有专享版。 专享版 Kafka Broker Kafka专享版实例的地址,格式为host:port。 Kafka SASLSSL 选择是否打开客户端连接Kafka专享版实例时SSL认证的开关。 开启Kafka SASLSSL,则数据加密传输,安全性更高,但性能会下降。 是 用户名 开启Kafka SASLSSL时显示该参数,表示连接DMS Kafka的用户名。 密码 开启Kafka SASLSSL时显示该参数,表示连接DMS Kafka的密码。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置DMS Kafka连接
      • 修改同步复制和同步落盘
        本文主要介绍修改同步复制和同步落盘。 同步复制指后端收到生产消息请求并复制给所有副本后,才返回客户端。 同步落盘指生产的每条消息都会立即写入磁盘。 开启:生产的每条消息都会立即写入磁盘,可靠性更高。 关闭:生产的消息存在内存中,不会立即写入磁盘。 本章节指导您在控制台修改同步复制和同步落盘。 说明 修改同步复制/同步落盘,不会重启实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改同步复制和同步落盘。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改同步复制和同步落盘的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,开启或关闭同步复制和同步落盘,单击“确定”。 开启:单击。 关闭:单击。 说明 当副本数为1时,不能开启同步复制功能。 开启同步复制后,需要在客户端配置acksall或者1,否则无效。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改同步复制和同步落盘
      • 支持审计的云产品及关键操作列表
        容器与中间件 分类 云产品 支持审计的关键操作列表 容器与中间件 云容器引擎 云容器引擎支持的关键操作列表 容器与中间件 容器镜像服务 容器镜像服务支持的关键操作列表 容器与中间件 分布式消息服务Kafka 分布式消息服务Kafka支持的关键操作列表 容器与中间件 弹性容器实例 弹性容器实例服务支持的关键操作列表 数据库 分类 云产品 支持审计的关键操作列表 数据库 关系型数据库MySQL版 关系型数据库MySQL版服务支持的关键操作列表 数据库 关系型数据库PostgreSQL版服务 关系型数据库PostgreSQL版服务支持的关键操作列表 数据库 关系型数据库SQL Server版 关系型数据库SQL Server版服务支持的关键操作列表 数据库 分布式关系型数据库 分布式关系型数据库支持的关键操作列表 数据库 文档数据库服务 文档数据库服务支持的关键操作列表 数据库 分布式缓存服务Redis版 分布式缓存服务Redis版支持的关键操作列表 数据库 数据传输服务DTS 数据传输服务DTS支持的关键操作列表
        来自:
        帮助文档
        云审计
        用户指南
        支持审计的云产品及关键操作列表
      • 使用Kafka触发器
        本章介绍函数工作流如何使用Kafka触发器。 使用Kafka触发器后,FunctionGraph会定期轮询Kafka实例指定Topic下的新消息,FunctionGraph将轮询得到的消息作为参数传递来调用函数。 前提条件 进行操作之前,需要做好以下准备。 已经创建函数。 创建Kafka触发器,必须开启函数工作流VPC访问,请参见配置网络。 已经创建Kafka实例。 在Kafka实例下创建主题。 创建Kafka触发器 1、登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、选择待配置的函数,单击进入函数详情页。 3、选择“设置 > 触发器”,单击“创建触发器”,弹出“创建触发器”对话框。 4、设置以下信息。 触发器类型:选择“分布式消息服务(Kafka)”。 实例:选择已创建专享版Kafka实例。 主题:选择专享版Kafka实例的Topic。 批处理大小:每次从Topic消费的消息数量。 用户名:Kafka实例开启SSL时需要填写。连接Kafka专享版实例的用户名。 密码:Kafka实例开启SSL时需要填写。连接Kafka专享版实例的密码。 5、单击“确定”,完成kafka触发器的创建。 说明 开启函数流VPC访问后,需要在Kafka服务安全组配置对应子网的权限。如何开启VPC访问请参见 Kafka触发器当前支持选择多个Topic主题,从而避免Topic过多导致创建的触发器数量被限制。 配置Kafka事件触发函数。 1、返回函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、选择待配置的函数,单击进入函数详情页。 3、在函数详情页,选择函数版本。 4、在“代码”页签下,单击“测试”,弹出“配置测试事件”对话框。 5、填写如下表示测试信息后,单击“保存”。 测试信息 参数 说明 配置测试事件 可创建新的测试事件也可编辑已有的测试事件。选择默认值:“创建新的测试事件”。 事件模板 选择"kafkaeventtemplate"模板,使用系统内置Kafka事件模板。 事件名称 事件名称必须以大写或小写字母开头,支持字母(大写或小写),数字和下划线“”(或中划线“”),并以字母或数字结尾,长度为125个字符,例如kafka123test。 测试事件 自动加载系统内置kafka事件模板,本例不做修改。 6、单击“测试”,可以得到函数运行结果,函数会返回输入kafka消息数据。
        来自:
        帮助文档
        函数工作流
        用户指南
        配置触发器
        使用Kafka触发器
      • 重启实例
        本文主要介绍重启实例。 操作场景 分布式消息服务Kafka管理控制台支持重启运行中的Kafka实例,且可实现批量重启Kafka实例。 说明 在Kafka实例重启过程中,客户端的生产与消费消息等请求会被拒绝。 前提条件 只有当Kafka实例处于“运行中”或“故障”状态,才能执行重启操作。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重启Kafka实例。 勾选Kafka实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“重启”。 在待重启Kafka实例所在行,单击“重启”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“重启”。 步骤 5 在“重启实例”对话框中,单击“是”,完成重启Kafka实例。 重启Kafka实例大约需要3到15分钟。Kafka实例重启成功后,实例状态切换为“运行中”。 说明 重启Kafka实例只会重启实例进程,不会重启实例所在虚拟机。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重启实例
      • 修改Topic老化时间
        本文主要介绍 修改Topic老化时间。 老化时间即消息的最长保留时间,消费者必须在此时间结束前消费消息,否则消息将被删除。删除的消息,无法被消费。 创建Topic成功之后,您可以根据业务需要修改Topic的老化时间。修改老化时间,不会影响业务。Topic老化时间,默认为72小时。 修改老化时间可以通过以下方式实现: 在“Topic管理”中,修改老化时间。 在“配置参数”中,修改“log.retention.hours”参数值,具体步骤请参考修改配置参数。 说明 如果Topic已经设置了老化时间,此时“配置参数”中的log.retention.hours值将不对此Topic生效。仅在Topic中未设置老化时间时,“配置参数”中的log.retention.hours值才会对此Topic生效。例如:Topic01设置的老化时间为60小时,“配置参数”中的log.retention.hours值为72小时,此时Topic01实际的老化时间为60小时。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改Topic老化时间。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改老化时间的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,输入老化时间,单击“确定”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic老化时间
      • 使用限制
        分类 组件 版本 微服务 org.springframework.cloud:springclouddependencies 2021.0.8 微服务 org.springframework.boot:springbootstarterweb 2.7.12 微服务 org.springframework.cloud:springcloudstarteropenfeign 3.1.8 微服务 org.apache.dubbo:dubbo 2.7.13 负载均衡 org.springframework.cloud:springcloudloadbalancer 3.1.7 微服务注册中心 com.alibaba.cloud:springcloudstarteralibabanacosdiscovery 2021.1 消息队列 org.apache.rocketmq:rocketmqclient 4.8.0 数据库 mysql:mysqlconnectorjava 5.1.40及以上版本 8.0.15及以上版本 数据库 org.postgresql:postgresql 42.5.0及以上版本
        来自:
        帮助文档
        应用高可用
        产品简介
        应用容灾多活
        使用限制
      • 设置Topic权限
        (可选)删除Topic权限 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 在导航栏单击“Topic管理”,进入Topic列表页面。 步骤 6 在待删除用户权限的Topic所在行,单击“设置用户权限”,弹出“设置用户权限”对话框。 步骤 7 在“已选择”区域,在待删除权限的SASLSSL用户所在行,单击“删除”,然后单击“确定”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        设置Topic权限
      • 旧资费
        说明 分布式消息服务Kafka旧资费根据实例规格分为基础版和高级版,存储空间按照不同类型收费。 目前在 芜湖2、上海7、重庆2、乌鲁木齐27、石家庄20、内蒙6、北京5 资源池开放订购。 实例价格如下: 规格 标准资费(元/月) 标准资费(元/小时) 基础版(100 MB/s) 1300 2.71 高级版(300 MB/s ) 2100 4.38 存储空间价格如下: 存储类型 标准资费(元/G/月) 标准资费(元/G/小时) 普通 IO 0.45 0.0008 高 IO 0.6 0.0013 超高 IO 1.5 0.0032
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        产品资费
        旧资费
      • 删除流控
        本文主要介绍删除流控。 操作场景 本章节指导您在无需流控时,删除流控。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在待删除的流控所在行,单击“删除”,弹出“删除流控”对话框。 步骤 7 单击“是”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示成功删除流控。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        删除流控
      • 生产者
        常量字段 说明 从哪个位置开始消费 建议设置为:ConsumeFromWhere.CONSUMEFROMFIRSTOFFSET.name() 消费组名称 消费者必要 最大消费线程数 针对push模式,默认64 最小消费线程数 针对push模式,默认20 消费超时时间 1.默认不设或设置<0:表示不做超时处理,应用自己处理签收2.设置>0:表示一旦超过此消费超时时间(应用未做签收),客户端将自动签收失败,消息进入重试队列。 namesrv 地址必要,例如:127.0.0.1:9876;127.0.0.1:9876 namesrv 用户名必填 namesrv 密码必填 ClusterName 客户端订阅broker的集群名,默认defaultMQBrokerCluster TenantID 租户ID,默认defaultMQTenantID
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        生产者
      • 导出Topic
        本文主要介绍 导出Topic。 本章节指导您在控制台导出Topic,支持批量导出。 前提条件 已创建Topic。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 在页面右上角单击,导出Topic列表到本地。 Topic列表中包含如下信息:Topic名称、分区数、副本数、老化时间、是否同步复制或同步落盘。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        导出Topic
      • 1
      • ...
      • 9
      • 10
      • 11
      • 12
      • 13
      • ...
      • 237
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      训推服务

      应用托管

      科研助手

      知识库问答

      人脸活体检测

      动作活体识别

      通用型OCR

      身份证识别

      推荐文档

      服务器迁移的优势

      入门教程④:Windows Service 2008系统扩容卷功

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号