云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RabbitMQ版_相关内容
      • 重启Kafka Manager
        本文主要介绍 重启Kafka Manager。 操作场景 当Kafka Manager无法登录或者无法使用时,例如下图中的报错,可以通过重启Kafka Manager,使Kafka Manager恢复正常。 图 报错信息 说明 重启Kafka Manager不会影响业务。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重启Kafka Manager。 在待重启Manager的Kafka实例所在行,单击“更多 > 重启Manager”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 重启Manager”。 步骤 5 单击“确定”。 您可以在实例的“后台任务管理”页面,查看当前任务的操作进度。任务状态为“成功”,表示重启成功。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重启Kafka Manager
      • 收发普通消息
        本章节介绍普通消息的收发方法和示例代码。其中,普通消息发送方式分为同步发送、异步发送、单向发送。 同步发送:同步发送是指消息发送方发出一条消息后,会在收到服务端同步响应之后才发下一条消息的通讯方式。 异步发送:异步发送是指发送方发出一条消息后,不等服务端返回响应,接着发送下一条消息的通讯方式。 单向发送:发送方只负责发送消息,不等待服务端返回响应且没有回调函数触发。 收发消息前,请参考收集连接信息收集RocketMQ所需的连接信息。 准备环境 开源的Java客户端支持连接分布式消息服务RocketMQ版,推荐使用的客户端版本为4.9.7。 通过以下任意一种方式引入依赖: 1. 使用Maven方式引入依赖。 org.apache.rocketmq rocketmqclient 4.9.7 org.apache.rocketmq rocketmqacl 4.9.7 2. 点击下载依赖JAR包:rocketmqall4.9.7binrelease.zip 同步发送 同步发送是最常用的方式,是指消息发送方发出一条消息后,会在收到服务端同步响应之后才发下一条消息的通讯方式,可靠的同步传输被广泛应用于各种场景,如重要的通知消息、短消息通知等。 参考如下示例代码 import org.apache.rocketmq.acl.common.AclClientRPCHook; import org.apache.rocketmq.acl.common.SessionCredentials; import org.apache.rocketmq.client.producer.DefaultMQProducer; import org.apache.rocketmq.client.producer.SendResult; import org.apache.rocketmq.common.message.Message; import org.apache.rocketmq.remoting.RPCHook; import org.apache.rocketmq.remoting.common.RemotingHelper; public class ProducerNormalExample { private static RPCHook getAclRPCHook() { return new AclClientRPCHook(new SessionCredentials( "accessKey", // 分布式消息服务RocketMQ控制台用户管理菜单中创建的用户ID "accessSecret" // 分布式消息服务RocketMQ控制台用户管理菜单中创建的密钥 )); } public static void main(String[] args) throws Exception { DefaultMQProducer producer new DefaultMQProducer("YOUR GROUP ID", getAclRPCHook()); // 填入控制台获取NAMESRV接入点地址 producer.setNamesrvAddr("XXX:xxx"); ; // 如果需要开启SSL,请增加此行代码 producer.start(); for (int i 0; i < 128; i++) try { { Message msg new Message("YOUR TOPIC", "TagA", "Hello RocketMQ".getBytes(RemotingHelper.DEFAULTCHARSET)); SendResult sendResult producer.send(msg); System.out.println(sendResult); } } catch (Exception e) { e.printStackTrace(); } producer.shutdown(); } }
        来自:
        帮助文档
        分布式消息服务RocketMQ
        开发指南
        Java
        收发普通消息
      • 查看磁盘使用量
        本文主要介绍查看磁盘使用量。 本章节指导您在控制台查看每个代理上磁盘的使用量。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例的“基本信息”页签。 步骤 5 在“磁盘存储统计”页签,查看磁盘的使用量。 图 查看磁盘的使用量 页面支持从以下三个方面对代理中的Topic磁盘使用量进行查询:使用量排名前xx 个、使用量达到xx GB和使用占比达 xx %。 在页面右上角,单击“查看监控数据”,跳转到云监控服务的监控指标页面。在监控指标页面,您可以查看Kafka实例的各项监控指标。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        查看磁盘使用量
      • 使用Logstash迁移Elasticsearch实例间数据
        本文以自建Elasticsearch 7.10.2版本迁移至天翼云Elasticsearch实例为例子,介绍如何使用天翼云Logstash实现迁移Elasticsearch实例的数据。 Logstash 是一个开源的数据处理管道工具,广泛用于数据收集、处理和传输。它通常作为“ELK Stack”(Elasticsearch、Logstash、Kibana、Beats)的一个核心组件,用于处理结构化和非结构化数据。 天翼云Logstash可以实现将源Elasticsearch实例(如天翼云、自建或第三方Elasticsearch实例)中的数据迁移至天翼云Elasticsearch实例。在升级实例版本、实例架构调整、或跨区域的实例数据迁移时,可以选择使用天翼云Logstash迁移源Elasticsearch实例数据。 Logstash的方式迁移数据支持跨大版本,且迁移方式灵活,下表是支持的集群版本: 源目标 Elasticsearch7.10.2 OpenSearch2.19.1 Elasticsearch6.x √ √ Elasticsearch7.x小于7.10.2 √ √ Elasticsearch7.x大于7.10.2 √ √ Elasticsearch8.x √ √ 本文以自建Elasticsearch 7.10.2版本迁移至天翼云Elasticsearch实例为例子。 前提条件 已经创建天翼云Elasticsearch实例。 已经在创建的Elasticsearch实例中加装了Logstash实例。 加装Logstash能够通过内网或公网访问需要迁移的源Elasticsearch实例。 Logstash工作模型 Logstash工作模型核心部分为三部分:输入(Input)、过滤器(Filter)、输出(Output),按照配置管道文件的顺序对数据进行提取、处理转换、输出。 1.输入(Input):Logstash支持多种数据输入源,如文件、数据库、消息队列以及Elasticsearch等。在我们的场景中,源Elasticsearch实例就是输入数据源。Logstash会批量提取源Elasticsearch实例中的数据。 2.过滤器(Filter):过滤器是可选的,用于对输入数据进行实时处理和转换。它提供了一些强大的插件,可以对数据进行解析、变换、裁剪或其他操作。在我们的场景中,可以选择是否使用过滤器来处理迁移中的数据,例如删除源数据中不需要迁移的字段等操作。 3.输出(Output):Logstash的输出插件负责将处理后的数据写入到目标位置,这可以是文件、数据库、消息队列,或者像本例中的天翼云Elasticsearch实例。
        来自:
        帮助文档
        云搜索服务
        最佳实践
        迁移集群
        使用Logstash迁移Elasticsearch实例间数据
      • Kafka Connect接入Kafka
        本节主要介绍Kafka Connect接入Kafka。 最佳实践概述 场景描述 Kafka Connect可以将完整的数据库注入到Kafka的Topic中,或者将服务器的系统监控指标注入到Kafka,然后像正常的Kafka流处理机制一样进行数据流处理。而导出工作则是将数据从Kafka Topic中导出到其它数据存储系统、查询系统或者离线分析系统等。 如果您想要在流数据平台场景下,使用Kafka Connect快速实现数据从Kafka和其它系统之间进行导入导出,可以参考本实践方案。 技术架构图 暂无。 方案优势 用户可按业务需要,参考Kafka Connect数据导入导出,实现流数据的消息消费。 前提条件 需已购买Kafka实例、创建Topic,并且已成功消费消息。 资源规划 本实践方案内容仅涉及Kafka专享版实例和Flink的安装配置。 分布式消息服务 Figure 1 分布式消息服务 资源类型 配置项 配置明细 说明 :::: 企业中间件 DMS Kafka专享实例 需已购买kafka专享实例,创建好Topic,并成功消费消息。 Kafka Connect流数据平台 Figure 2 Kafka Connect流数据平台 资源类型 配置项 配置明细 说明 :::: 应用软件 Flink框架 Flink 1.14 使用开源Apache Flink 方案正文 Kafka Connect 目前支持两种执行模式:standalone 和 distributed。 standalone模式 通过以下命令以 standalone 模式启动 connect: 接入Kafka专享版与接入开源 Apache Kafka 没有区别,仅需要修改 bootstrap.servers 为申请实例时分配的 IP。 distributed模式 通过以下命令以 distributed 模式启动 connect: 该模式下,Kafka Connect 会将 offsets、configs 和 task status 信息存储在 Kafka Topic 中,存储的Topic 在 connectdistributed 中的以下字段配置: 这三个 Topic 需要手动创建,才能保证创建的属性符合 connect 的要求。 config.storage.topic 需要保证只有一个 partition,多副本且为 compact 模式。 offset.storage.topic 需要有多个 partition,多副本且为 compact 模式。 status.storage.topic 需要有多个 partition,多副本且为 compact 模式。 配置 bootstrap.servers 为申请实例是分配的 IP。 配置 group.id,用于标识 connect 集群,需要与消费者分组区分开来。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka Connect接入Kafka
      • 重发死信队列
        接口功能介绍 重发死信队列 接口约束 无 URI POST /v3/dlq/resend 路径参数 无 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池编码 200000002368 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 prodInstId 是 String 实例ID groupId 是 String 订阅组名称 msgId 是 String 消息ID 响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 接口系统层面状态码。成功:800,失败:900 message String 描述状态 returnObj Object 返回对象。此参数所包含的参数请见“响应示例'里面的注释 error String 错误码,只有非成功才有这个字段,方便快速定位问题 201 枚举参数 无 请求示例 请求url 请求头header 无 请求体body { "prodInstId":"mqtest", "groupId": "T1", "msgId": "xxx" } 响应示例 响应成功示例 { "returnObj":{ }, "message":"success", "statusCode":800 } 响应失败示例 { "returnObj": {}, "message": "...", "error":"201", "statusCode": "900" }
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        死信队列管理
        重发死信队列
      • 入门指导
        本文将为您介绍分布式消息服务RocketMQ入门的基本流程,主要包括控制台创建RocketMQ专享版实例、使用弹性云服务器连接实例的操作,帮助您快速上手RocketMQ。 操作流程 图1 RocketMQ使用流程 环境准备 RocketMQ实例运行于虚拟私有云中,在创建实例前需要确保有可用的虚拟私有云。 创建RocketMQ实例 在创建实例时,您可以根据需求选择需要的实例规格和数量,并开启SSL访问。开启SSL后,数据加密传输,安全性更高。 创建Topic 在实例创建成功后,您需要创建Topic,用于发送与接收消息。 连接RocketMQ实例 使用客户端连接实例,并通过命令行生产消费消息。 配置告警 配置RocketMQ实例监控告警策略,监控实际业务运行状态。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        入门指导
      • 编辑流控
        本文主要介绍编辑流控。 操作场景 本章节指导您在流控创建成功后,修改生产上限速率或者消费上限速率。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在待修改的流控所在行,单击“编辑”,弹出“编辑流控”对话框。 步骤 7 修改生产上限速率或者消费上限速率,单击“确定”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示流控修改成功。 进入“流控管理 > 流控列表”页面,查看修改后流控的生产上限速率或者消费上限速率。 说明 “生产上限速率”和“消费上限速率”不可同时为空。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        编辑流控
      • 查看实例后台任务
        本文主要介绍查看实例后台任务。 . 对实例的一些操作,如修改公网访问开关、修改容量阈值策略等,会启动一个后台任务,您可以在后台任务页,查看该操作的状态等信息,同时可通过删除操作,清理任务信息。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例的“基本信息”页签。 步骤 5 单击“后台任务管理”页签,进入后台任务管理页面。 界面显示任务列表。 步骤 6 在右上角单击系统默认时间,选择开始时间和结束时间,单击“确定”,界面显示相应时间段内启动的任务。 在后台任务管理页面,您还可以执行以下操作: 单击,刷新任务状态。 单击“删除”,弹出“删除任务记录”对话框,单击“是”,清理任务信息。 说明 您只能在任务已经执行完成,即任务状态为成功或者失败时,才能执行删除操作。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        查看实例后台任务
      • 创建专属云Kafka
        前提条件: 1、提前开通专属云(计算独享型),并存留足够未分配的计算资源; 2、提前开通VPC、安全组等网络侧资源; 操作步骤: 步骤一: 登录天翼云账号,切换至专属云(计算独享型)节点; 如已购买了专属云(计算独享型),在控制台的右上角节点区域,可见有独立专属云“dec”标识的节点,选择用户需要进行Kafka购买的专属云节点进入。 图 带专属云“dec”标识的节点如下: 步骤二: 进入专属云节点后,在控制台中的产品列表中选择“分布式消息服务”,进入到服务控制台,在左侧菜单栏选择“Kafka专享版”,进入Kafka专享版实例列表页面。 图 专享版Kafka订购入口 步骤三: 点击“购买Kafka实例”,进入订购页面,按提示进行相关规格选择与配置。 1)计费方式为“包年包月”; 2)可用区:客户可自行根据资源池多AZ支持情况选择可用区进行创建。 说明:专享版Kafka的实例为集群模式,支持选择1个或者3个及以上可用区。不支持选择2个可用区,选择时需要注意;该可用区选择后不支持更换。 3)实例名称及企业项目:按命名规范自定义,也可以默认系统分配的名称; 4)Kafka版本:当前支持2种版本选择,2.3.0和1.1.0,推荐时间2.3.0版本; 5)CPU架构:当前仅支持“x86计算”,保持默认值即可; 图 购买Kafka订购页 6)选择具体的队列规格类型,在规格的描述与说明中会有该队列的底层资源类型、代理数量、分区上限、消费组数量,供客户与业务系统需求匹配规格。 说明:当前订购规格后,暂不支持规格变更,请在订购时做好业务整体需求评估。 7)选择存储空间:此处有2种存储可以选择,分别是公有云的云硬盘、专属分布式存储。存储的类型均支持高IO、超高IO。 说明:1、选择云硬盘时,具体价格以公有云的云硬盘价格为准; 2、选择转属分布式存储时,需提前已购买了专属云(存储独享型),在“可用存储”右侧的“存储池”列表中进行选择。 3、根据实际需要选择存储Kafka数据的总磁盘大小。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 • 基准带宽为100MB/s时,存储空间取值范围:600GB ~ 90000GB。 • 基准带宽为300MB/s时,存储空间取值范围:1200GB ~ 90000GB。 • 基准带宽为600MB/s时,存储空间取值范围:2400GB ~ 90000GB。 • 基准带宽为1200MB/s时,存储空间取值范围:4800GB ~ 90000GB 图 订购页界面 图 选择云硬盘时存储类别 图 选择专属分布式存储时,需要提前购买专属存储,并在存储池列表中选择 8)选择私有云、安全组; 虚拟私有云可以为您的Kafka专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 虚拟私有云和子网在Kafka专享版实例创建完成后,不支持修改。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 9)设置Kafka Manager的用户名、密码; Kafka Manager是开源的kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 10)选择订购时长; 11)点击“立即购买”之前,还可进入“更多配置”也进行高级配置。 1、SASLSSL开关,开启后则对数据进行加密传输,但会对性能造成下降; 客户端连接Kafka专享版实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 创建实例后,Kafka SASLSSL开关不支持修改,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您需要设置连接Kafka专享版实例的用户名和密码。 2、自动创建Topic,开关开启后,Topic将根据配置API接口自动创建。 选择开启“Kafka自动创建Topic”,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 12)点击“立即购买”,进入支付前规格确认界面。显示详细kafka 实例信息,价格。 13)确认实例信息无误且阅读并同意服务协议后,点击“去支付”进入购买支付环节,完成付款后则开启Kafka创建。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明: 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        快速入门
        创建专属云Kafka
      • 删除消费组
        本文主要介绍删除消费组。 分布式消息服务Kafka支持通过以下两种方式删除消费组,您可以根据实际情况选择任意一种方式。 方法一:在管理控制台删除消费组 方法二:在Kafka客户端使用命令行工具删除消费组(确保Kafka实例版本与命令行工具版本相同) 前提条件 待删除消费组的状态为“EMPTY”。 方法一:在管理控制台删除消费组 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 步骤 6 通过以下任意一种方法,删除消费组。 勾选消费组名称左侧的方框,可选一个或多个,单击信息栏左上侧的“删除消费组”。 在待删除消费组所在行,单击“删除”。 说明 仅在“消费组状态”为“EMPTY”时,支持删除。 消费组包含以下状态: DEAD:消费组内没有任何成员,且没有任何元数据。 EMPTY:消费组内没有任何成员,存在元数据。 PREPARINGREBALANCE:准备开启Rebalance。 COMPLETINGREBALANCE:所有成员加入消费组。 STABLE:消费组内成员可以正常消费。 步骤 7 弹出“删除消费组”对话框,单击“是”,完成消费组的删除。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        删除消费组
      • 云审计服务支持的DMS for RocketMQ操作列表
        本章节介绍了云审计服务支持的分布式消息服务RocketMQ操作列表。 表 云审计服务支持的分布式消息服务RocketMQ操作列表 操作名称 资源类型 事件名称 创建Topic成功 reliability ReliabilityTopicCreationSuccess 创建Topic失败 reliability ReliabilityTopicCreationFailure 修改Topic成功 reliability ReliabilityTopicModifySuccess 修改Topic失败 reliability ReliabilityTopicModifyFailure 删除Topic成功 reliability ReliabilityTopicDeletionSuccess 删除Topic失败 reliability ReliabilityTopicDeletionFailure 创建消费组成功 reliability ReliabilityCreateGroupSuccess 创建消费组失败 reliability ReliabilityCreateGroupFailure 编辑消费组成功 reliability ReliabilityGroupModifySuccess 编辑消费组失败 reliability ReliabilityGroupModifyFailure 删除消费组成功 reliability ReliabilityGroupDeletionSuccess 删除消费组失败 reliability ReliabilityGroupDeletionFailure 删除后台任务成功 reliability deleteDMSBackendJobSuccess 删除后台任务失败 reliability deleteDMSBackendJobFailure 创建DMS实例订单成功 reliability createDMSInstanceOrderSuccess 创建DMS实例订单失败 reliability createDMSInstanceOrderFailure 提交修改DMS实例订单请求成功 reliability modifyDMSInstanceOrderSuccess 提交修改DMS实例订单请求失败 reliability modifyDMSInstanceOrderFailure 提交扩容实例请求成功 reliability extendDMSInstanceSuccess 提交扩容实例请求失败 reliability extendDMSInstanceFailure 删除创建失败的DMS实例成功 reliability deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败 reliability deleteDMSCreateFailureInstancesFailure 提交批量删除DMS实例请求成功 reliability batchDeleteDMSInstanceSuccess 提交批量删除DMS实例请求失败 reliability batchDeleteDMSInstanceFailure 提交修改DMS实例信息请求成功 reliability modifyDMSInstanceInfoSuccess 提交修改DMS实例信息请求失败 reliability modifyDMSInstanceInfoFailure 批量删除DMS实例任务 reliability batchDeleteDMSInstanceTask 解冻DMS实例任务执行成功 reliability unfreezeDMSInstanceTaskSuccess 解冻DMS实例任务执行失败 reliability unfreezeDMSInstanceTaskFailure 冻结DMS实例任务执行成功 reliability freezeDMSInstanceTaskSuccess 冻结DMS实例任务执行失败 reliability freezeDMSInstanceTaskFailure 删除DMS实例任务执行成功 reliability deleteDMSInstanceTaskSuccess 删除DMS实例任务执行失败 reliability deleteDMSInstanceTaskFailure 创建DMS实例任务执行成功 reliability createDMSInstanceTaskSuccess 创建DMS实例任务执行失败 reliability createDMSInstanceTaskFailure 扩容DMS实例任务执行成功 reliability extendDMSInstanceTaskSuccess 扩容DMS实例任务执行失败 reliability extendDMSInstanceTaskFailure 修改DMS实例信息任务执行成功 reliability modifyDMSInstanceInfoTaskSuccess 修改DMS实例信息任务执行失败 reliability modifyDMSInstanceInfoTaskFailure
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的DMS for RocketMQ操作列表
      • 按需转包周期
        本文主要介绍 按需转包周期。 选择按需付费的用户,可以选择“转包周期”,变更实例计费模式为包年/包月。 说明 实例从按需变为包周期计费时,不影响应用,只是计费方式变了。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,实现按需实例转包周期。 勾选Kafka实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“转包周期”,弹出“转包周期”对话框,单击“是”,跳转到“按需转包年/包月”页面。 在待转包周期的Kafka实例所在行,单击“更多 > 转包周期”,跳转到“按需转包年/包月”页面。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 转包周期”,跳转到“按需转包年/包月”页面。 步骤 5 选择续费时长,然后单击“去支付”,根据界面提示信息,支付费用,完成实例转包周期操作。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        按需转包周期
      • 购买
        前提条件: 1、提前开通专属云(计算独享型),并存留足够未分配的计算资源; 2、提前开通VPC、安全组等网络侧资源; 购买操作步骤: 步骤一:登录天翼云账号,切换至专属云(计算独享型)节点; 如已购买了专属云(计算独享型),在控制台的右上角节点区域,可见有独立专属云“dec”标识的节点,选择用户需要进行Kafka购买的专属云节点进入。 图 带专属云“dec”标识的节点如下: 步骤二:进入专属云节点后,在控制台中的产品列表中选择“分布式消息服务”,进入到服务控制台,在左侧菜单栏选择“Kafka专享版”,进入Kafka专享版实例列表页面。 图 专享版Kafka订购入口 步骤三:点击“购买Kafka实例”,进入订购页面,按提示进行相关规格选择与配置。 1)计费方式为“包年包月”; 2)可用区:客户可自行根据资源池多AZ支持情况选择可用区进行创建。 说明:专享版Kafka的实例为集群模式,支持选择1个或者3个及以上可用区。不支持选择2个可用区,选择时需要注意;该可用区选择后不支持更换。 3)实例名称及企业项目:按命名规范自定义,也可以默认系统分配的名称; 4)Kafka版本:当前支持2种版本选择,2.3.0和1.1.0,推荐时间2.3.0版本; 5)CPU架构:当前仅支持“x86计算”,保持默认值即可; 图 购买Kafka订购页 6)选择具体的队列规格类型,在规格的描述与说明中会有该队列的底层资源类型、代理数量、分区上限、消费组数量,供客户与业务系统需求匹配规格。 说明:当前订购规格后,暂不支持规格变更,请在订购时做好业务整体需求评估。 7)选择存储空间:此处有2种存储可以选择,分别是公有云的云硬盘、专属分布式存储。存储的类型均支持高IO、超高IO。 说明:1、选择云硬盘时,具体价格以公有云的云硬盘价格为准; 2、选择转属分布式存储时,需提前已购买了专属云(存储独享型),在“可用存储”右侧的“存储池”列表中进行选择。 3、根据实际需要选择存储Kafka数据的总磁盘大小。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 • 基准带宽为100MB/s时,存储空间取值范围:600GB ~ 90000GB。 • 基准带宽为300MB/s时,存储空间取值范围:1200GB ~ 90000GB。 • 基准带宽为600MB/s时,存储空间取值范围:2400GB ~ 90000GB。 • 基准带宽为1200MB/s时,存储空间取值范围:4800GB ~ 90000GB 图 订购页界面 图 选择云硬盘时存储类别 图 选择专属分布式存储时,需要提前购买专属存储,并在存储池列表中选择 8)选择私有云、安全组; 虚拟私有云可以为您的Kafka专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 虚拟私有云和子网在Kafka专享版实例创建完成后,不支持修改。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 9)设置Kafka Manager的用户名、密码; Kafka Manager是开源的kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 10)选择订购时长; 11)点击“立即购买”之前,还可进入“更多配置”也进行高级配置。 1、SASLSSL开关,开启后则对数据进行加密传输,但会对性能造成下降; 客户端连接Kafka专享版实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 创建实例后,Kafka SASLSSL开关不支持修改,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您需要设置连接Kafka专享版实例的用户名和密码。 2、自动创建Topic,开关开启后,Topic将根据配置API接口自动创建。 选择开启“Kafka自动创建Topic”,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 12)点击“立即购买”,进入支付前规格确认界面。显示详细kafka 实例信息,价格。 13)确认实例信息无误且阅读并同意服务协议后,点击“去支付”进入购买支付环节,完成付款后则开启Kafka创建。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 • 当实例的“状态”变为“运行中”时,说明实例创建成功。 • 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明: 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        计费说明
        购买
      • 分区动态处理
        操作场景 分布式消息服务 Kafka 版支持分区动态处理功能,当实例集群出现分区不平衡的情况时,可以手动进行分区均衡,重新分配分区在节点上的分布情况。也可以选择自动分区均衡 ,Kafka 会根据您设定的策略自动检查 Topic 的分区分布,自动分析选择业务低峰期发起分区均衡。 前提条件 自动分区均衡仅支持集群版实例。 自动分区均衡和Topic管理页面的分区平衡任务不能同时运行。 操作影响 分区均衡操作时可能引起流量抖动以及请求超时情况,建议在业务低峰期操作。 分区平衡后Topic的metadata会改变,如果生产者不支持重试机制,会有少量的请求失败,导致部分消息生产失败。 操作步骤 1. 进入Kafka实例管理控制台。 2. 在左侧菜单栏中选择智能运维中的弹性伸缩,进入弹性伸缩功能页面。 3. 在弹性伸缩页面的分区动态处理模块,可以选择开启或关闭自动化分区均衡。 4. 自动分区均衡支持两种策略,通过”配置“按钮可选择自定义时间或自动分析选择业务低峰期。 5. 单击”确定“,完成配置,再点击状态开关进行开启即可。 6. 可通过”查看“按钮或者直接进入智能运维中的后台任务管理功能页面查看自动化分区均衡调整记录详情。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        智能运维
        弹性伸缩
        分区动态处理
      • 入门指引
        本文主要介绍入门指引。 本文将为您介绍分布式消息服务Kafka入门的基本流程,主要包括控制台创建Kafka专享版实例、使用弹性云主机连接实例的操作,帮助您快速上手Kafka。 您还可以通过API方式创建Kafka实例、在业务代码中连接Kafka实例。 操作流程 图Kafka使用流程 1. 环境准备 Kafka实例运行于虚拟私有云中,在创建实例前需要确保有可用的虚拟私有云。 Kafka实例创建后,您需要在弹性云主机中下载和安装Kafka开源客户端,然后才能进行生产消息和消费消息。 2. 创建Kafka实例 在创建实例时,您可以选择是否开启SASL访问,开启后,数据加密传输,安全性更高。同时,SASL开关只能在创建实例时设置,实例创建成功后,不支持修改。 3. (可选)创建Topic Kafka实例创建成功后,如果没有开启“Kafka自动创建Topic”,需要手动创建Topic,然后才能进行生产消息和消费消息。 4. 连接实例 针对实例是否开启SASL开关,在连接时是否需要下载证书,区分以下两种场景: 未使用SASL:包含内网访问和公网访问。 使用SASL:包含内网访问和公网访问。 5. 配置告警 配置Kafka实例监控告警策略,监控实际业务运行状态。 说明 关于Kafka的相关概念,请参考
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        入门指引
      • 通知设置
        本节介绍如何配置入侵检测告警通知。 在通知设置页面,您可以开启入侵检测告警通知,配置接收告警通知的接收人等。 开启/关闭告警通知 1. 登录云防火墙(原生版)控制台。 2. 在左侧导航栏,选择“设置中心 > 通知设置”,进入通知设置页面。 3. 生效状态为“开”表示已开启告警通知;“关”表示已关闭告警通知。 配置告警通知 1. 登录云防火墙(原生版)控制台。 2. 在左侧导航栏,选择“设置中心 > 通知设置”,进入通知设置页面。 3. 单击通知项操作列的“编辑”,进入通知项配置页面。 4. 配置通知类型、通知时间和消息接收人。 参数名称 说明 :: 通知类型 支持严重、高危、中危、低危。 通知时间 全天、时段(8:0020:00) 消息接收人 该页面自动列出当前账号及其全部子账号。 勾选需要接收告警通知的账号,当有告警时,系统会自动发送告警信息至所选账号的邮箱。 5. 配置告警通知开关。 生效状态为“开”表示开启告警通知;“关”表示关闭告警通知。 6. 配置完成后,单击“确定”,保存配置。
        来自:
        帮助文档
        云防火墙(原生版)
        用户指南(C100)
        设置中心
        通知设置
      • 变更实例规格
        本章节介绍了如何变更分布式消息服务RocketMQ实例规格,以及扩容存储空间、扩容代理个数。 操作场景 RocketMQ实例创建成功后,您可以根据业务需要,扩容存储空间和代理个数。不支持同时扩容存储空间和代理个数,如果需要可以分别进行扩容。 当前只支持扩容,不支持缩容 。扩容存储空间有次数限制,只能扩容20次。扩容代理个数,可以扩大总分区数。 前提条件 已创建RocketMQ实例,且实例状态为“运行中”。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 通过以下任意一种方法,变更实例规格。 在待变更规格的实例所在行,单击“更多 > 变更规格”。 单击RocketMQ实例名称,进入实例详情页面。单击右上角的“更多 > 变更规格”。 3. 根据实际情况选择扩容存储空间或者代理个数。 不支持同时扩容存储空间和代理个数,如果需要可以分别进行扩容。 图1 变更实例规格 扩容存储空间。 在“变更方式”中,选择“存储扩容”,在“单个代理存储空间”中,选择扩容后的单个代理的存储空间大小,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“可用存储空间”中查看扩容后的总存储空间大小(即扩容后的单个代理的存储空间代理个数)。 说明: 扩容存储空间不会影响业务。 可用存储空间实际存储空间用于存储日志的存储空间格式化磁盘的损耗。 例如,实际扩容存储空间到700GB,用于存储日志的存储空间为100GB,格式化磁盘损耗7GB,那么扩容后的可用存储空间为593GB。 扩容代理个数。 在“变更方式”中,选择“代理扩容”,在“代理个数”中,选择扩容后的代理个数,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“规格”中查看扩容后的代理个数。 说明: 扩容代理个数不会影响原来的代理,业务也不受影响。 新创建的Topic才有可能创建在新代理上,原来Topic还分布在原有代理上,如果需要使用新扩容的代理,可以通过新建Topic来实现。 已开启公网访问,且设置了弹性IP地址的实例,在扩容代理个数时,需要为新扩容的代理设置弹性IP地址。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        变更实例规格
      • 支持天翼云APP产品控制台的云产品
        本文介绍天已支持翼云APP产品控制台的云产品。 天翼云支持在天翼云APP对云产品进行管理。 天翼云APP产品控制台支持的云产品 1、弹性云主机(一类节点) 2、天翼云电脑(政企版)(一类节点) 3、分布式消息服务Kafka(一类节点) 4、分布式缓存服务Redis版(一类节点) 5、云容器引擎(一类节点) 6、关系数据库MySQL版(一类节点 II 类型资源池) 7、媒体存储(通用) 8、对象存储(经典版)I型(一类节点) 9、备案(通用) 更多产品管理控制台正在接入中,敬请期待,如对产品控制台有任何建议,欢迎提交建议与反馈
        来自:
        帮助文档
        天翼云APP
        管理控制台
        支持天翼云APP产品控制台的云产品
      • 创建安全报告
        此小节介绍企业主机安全创建安全报告。 若已有模板的报告类型和报告内容无法满足您对安全报告的订阅需求,您可通过该章节创建需要生成报告的周期和内容。 约束限制 未开启企业版、旗舰版、网页防篡改版、容器版防护不支持安全报告相关操作。 操作步骤 1、登录管理控制台。 2、在页面左上角单击选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。 4、左侧选择“安全报告”进入安全报告概览页面。服务预设了按月(default monthly security report)和按周(default weekly security report)统计的两个安全报告模板,可直接使用。 5、创建新报告 按模板创建按月或按周的安全报告 单击按月或按周模板报告中的“复制”(按需选择即可),进入报告基本信息配置页面。 自定义创建其他周期的安全报告 单击页面中的“创建新报告”,进入报告基本信息配置页面。 自定义创建报告 6、对报告基本信息进行配置,参数说明如表所示。 编辑报告基本信息 报告基本信息参数说明 参数名称 参数说明 取值样例 报告名称 默认的报告名称。 ecs security report 报告类型 报告的统计周期类型名称。 安全日报(统计周期为每天00:0024:00) 安全周报(统计周期为周一00:00周日24:00) 安全月报(统计周期为每月1号00:00月度最后一天24:00) 自定义报告(自定义统计周期,周期范围应介于1天(包含)至3个月(包含)之间。 所有类型报告将在生成后的次日自动发送至您设置的报告接收人。 安全月报 报告发送时间 报告自动发送时间。 报告接收方式 生成的安全报告接收方式。 消息中心:使用消息中心和其它安全服务共同使用“安全事件通知”的信息接收人。需登录控制台,在右上角信箱查看。 消息主题:为HSS单独创建的主题,设置告警通知接收人。可选择短信或邮件接收通知。 无需发送到邮箱:不发送报告至邮箱。 消息中心 7、确认信息无误,单击页面右下角“下一步”,配置报告内容。 8、在左侧勾选需要生成的报告项,右侧可预览,确认无误,单击右下角“保存”,开启安全报告的订阅。
        来自:
        帮助文档
        企业主机安全
        用户指南
        安全报告
        创建安全报告
      • 重置Kafka Manager密码
        本文主要介绍 重置Kafka Manager密码。 操作场景 如果您忘记了创建实例时设置的Kafka Manager密码,通过重置Manager密码功能,重新设置一个新的密码,可使用新密码登录Kafka Manager。 前提条件 已创建Kafka实例,且实例处于“运行中”。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重置Kafka Manager密码。 在待重置Manager密码的Kafka实例所在行,单击“更多 > 重置Manager密码”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 重置Manager密码”。 单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,在“连接信息 > Manager用户名”后,单击“重置Manager密码”。 步骤 5 输入“新密码”和“确认密码”,单击“确定”,完成密码重置。 重置Manager密码成功,界面提示重置实例的密码成功。 重置Manager密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重置Kafka Manager密码
      • 修改实例信息
        本文主要讲述修改实例信息。 创建Kafka实例成功后,您可以根据自己的业务情况对Kafka实例的部分参数进行调整,包括实例名称、描述、安全组和容量阈值策略等。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 以下参数支持修改。 实例名称 企业项目(修改企业项目,不会重启实例) 描述 安全组 公网访问(公网访问的修改方法,请参考设置实例公网访问。) 容量阈值策略(修改容量阈值策略,不会重启实例。) Kafka自动创建Topic(修改Kafka自动创建Topic,会导致Kafka重启) 跨VPC访问(跨VPC访问的操作步骤,请参考使用DNAT访问Kafka实例。) 参数修改完成后,通过以下方式查看修改结果。 修改“容量阈值策略”、“公网访问”和“Kafka自动创建Topic”后,系统跳转到“后台任务管理”页签,并显示当前任务的操作进度和结果。 修改“实例名称”、“描述”、“企业项目”、“跨VPC访问”和“安全组”后,右上角直接提示修改结果。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        修改实例信息
      • 获取SDK
        本章介绍了如何获取SDK。 引入依赖 java com.rabbitmq amqpclient 5.8.0
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ接入
        获取SDK
      • 限流降级
        参数 描述 参数位置索引 埋点传入参数的索引位置。 统计维度 可选择通过请求数或并发线程数。 1,通过请求数: 限制一段时间内的调用次数。 2,并发数: 限制该资源调用的并发数。 统计周期时间 统计窗口时间长度(单位为秒)。 单机阈值 是作用于每个热点参数的阈值。 流控效果 当统计维度为通过请求数时,可以选择流控效果来处理被拦截流量。 1,快速失败: 达到阈值时,立即拦截请求。 该模式下可以额外设置一个缓冲请求数,即针对突发请求额外允许的请求数目。 2,排队等待: 请求匀速通过,允许排队等待,通常用于消息队列削峰填谷等场景。 需设置具体的超时时间,排队时会计算预计的排队时长,若超过最大超时时间则请求会直接被拒绝。 是否开启 打开开关表示启用该规则,关闭开关表示禁用该规则。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        部署运维
        容器应用实例
        限流降级
      • 使用DNAT访问Kafka实例
        步骤四:在Kafka控制台绑定弹性公网IP地址 步骤 1 在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 步骤 2 单击Kafka实例名称,进入实例详情页面。 步骤 3 在“基本信息”页面的“高级配置”区域,单击“修改”。 步骤 4 将“advertised.listeners IP/域名”改为DNAT规则中的弹性公网IP,内网连接地址和弹性公网IP的对应关系与添加DNAT规则中记录的对应关系保持一致,单击“保存”。 图修改advertised.listeners IP(使用DNAT访问) 步骤五:验证接口连通性 参考连接未开启SASL的Kafka实例或者连接已开启SASL的Kafka实例,测试是否可以生产和消费消息。 测试接口连通性时,注意以下几点: 连接Kafka实例的地址为“advertised.listeners IP:9011”,以上图为例,连接Kafka实例的地址为“124.xxx.xxx.167:9011,124.xxx.xxx.174:9011,124.xxx.xxx.57:9011”。 在Kafka实例安全组的入方向规则中放通9011端口。 连接Kafka实例的客户端已开启公网访问功能。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        使用DNAT访问Kafka实例
      • 创建流控
        本文主要介绍 创建流控。 操作场景 本章节指导您在控制台对用户/客户端/Topic进行流量控制,控制生产/消费消息的上限速率。 用户/客户端的流控作用范围是整个broker,Topic的流控作用范围是指定Topic。 操作影响 当流控值达到上限后,会导致生产/消费的时延增大。 设置的流控值较小且生产者速率较大时,可能会造成生产超时、消息丢失,导致部分消息生产失败。 初始生产/消费的流量较大,如果设置一个较小的流控值,会导致生产/消费的时延增大、部分消息生产失败。建议逐次减半设置流控值,待生产/消费稳定后继续减半设置,直到设置为目标流控值。例如初始生产流量100MB/s,可先设置生产流控为50MB/s,待稳定后再修改为25MB/s,直到目标流控值。 前提条件 如果需要对用户进行流量控制,请在创建Kafka实例时,开启SASLSSL功能。然后在控制台的“用户管理”页面,获取用户名。 如果需要对指定客户端进行流量控制,请在客户端配置中获取client ID。 如果需要对指定Topic进行流量控制,请在控制台的“Topic管理”页面,获取Topic名称。 创建用户/客户端流控 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在页面顶端单击“User/Client”,进入“User/Client”页签。 步骤 7 在页面左上角单击“创建流控”,弹出“创建流控”对话框。 步骤 8 设置流控参数。 表 流控参数说明 参数名称 说明 用户名 输入指定用户名,对此用户进行流控。如果需要对所有用户进行流控,在“用户名”后,单击“选择默认”。流控创建完后,无法修改“用户名”。 客户端ID 输入指定客户端ID,对此客户端进行流控。如果需要对所有客户端进行流控,在“客户端ID”后,单击“选择默认”。流控创建完后,无法修改“客户端ID”。 生产上限速率 设置生产上限速率,单位为MB/s。为空时,表示不设置速率。 消费上限速率 设置消费上限速率,单位为MB/s。为空时,表示不设置速率。 说明 未开启SASL的实例,在“创建流控”对话框中,不显示“用户名”。 “用户名”和“客户端ID”不可同时为空。 “生产上限速率”和“消费上限速率”不可同时为空。 步骤 9 单击“确定”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示流控创建成功。 进入“流控管理 > 流控列表”页面,在“User/Client”页签中,单击页面右上角的“仅设置了用户名”/“仅设置了客户端ID”/“设置了用户名和客户端ID”,输入新创建的流控名称,单击,查看新创建的流控。 图 查看新创建的流控
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        创建流控
      • (可选)步骤三:创建Topic
        本文主要介绍步骤三:创建Topic。 Topic,即消息主题。创建Kafka实例成功后,如果没有开启“Kafka自动创建Topic”,需要手动创建Topic,然后才能进行生产消息和消费消息。如果实例开启了“Kafka自动创建Topic”,则该操作为可选,在进行生产时,会自动创建一个Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 本文主要介绍手动创建Topic的操作,有以下三种方式,您可以根据实际情况选择任意一种方式: 方式1:在控制台创建 方式2:在Kafka Manager创建 方式3:在Kafka客户端上创建 方式1:在控制台创建 步骤 1 登录分布式消息服务Kafka控制台,选择Kafka实例所在的区域。 步骤 2 在“Kafka专享版”页面,单击Kafka实例的名称,进入实例详情页面。 步骤 3 在“Topic管理”页签,单击“创建Topic”,弹出“创建Topic”对话框。 步骤 4 填写Topic名称和配置信息,单击“确定”,完成创建Topic。 方式2:在Kafka Manager创建 登录Kafka Manager后,在页面顶部选择“Topic > Create”,然后按照界面参数填写即可。 注意 Topic名称开头包含特殊字符,例如下划线“”、 号“ ”时,监控数据无法展示。 方式3:在Kafka客户端上创建 仅在Kafka客户端版本为2.2以上 时,支持通过kafkatopics.sh创建Topic,以及管理Topic的各类参数。 注意 Topic名称开头包含特殊字符,例如下划线“”、
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        (可选)步骤三:创建Topic
      • 限流降级
        参数 描述 参数位置索引 埋点传入参数的索引位置。 统计维度 可选择通过请求数或并发线程数。 1.通过请求数: 限制一段时间内的调用次数。 2.并发数: 限制该资源调用的并发数。 统计周期时间 统计窗口时间长度(单位为秒)。 单机阈值 是作用于每个热点参数的阈值。 流控效果 当统计维度为通过请求数时,可以选择流控效果来处理被拦截流量。 1.快速失败: 达到阈值时,立即拦截请求。 该模式下可以额外设置一个缓冲请求数,即针对突发请求额外允许的请求数目。 2.排队等待: 请求匀速通过,允许排队等待,通常用于消息队列削峰填谷等场景。 需设置具体的超时时间,排队时会计算预计的排队时长,若超过最大超时时间则请求会直接被拒绝。 是否开启 打开开关表示启用该规则,关闭开关表示禁用该规则。
        来自:
      • 集群版客户端常见错误码有哪些?
        本文介绍Redis集群版客户端常见错误码 50010001:路由队列堵塞。 50010002:添加路由队列异常。 50010003: 路由处理异常。 50010004:注册客户端读失败。 50010005:超过允许的最大客户端连接数。 50010006:注册目标路由读事件异常。 50010007:单个客户端连接请求数大于规定值。 50010008:协议异常,一般为客户端发送了不支持的命令或者断开连接。 50010009:不完整的报文。 50010010:读取redis超时。表示已经发送给redis,redis处理超时;检查请求报文是否过大,如果请求报文过大,建议拆小。 50010011:网络io异常。 50010012:目标服务器繁忙,稍后再试。 50010013:获取目标路由主机失败,检查redis机器是否io繁忙。 50010014:路由主机配置端口不合法。 50010015:连接目标主机失败。 50010016:目标主机网络繁忙。 50010017:路由发送给目标主机时网络错误。 50010018:读取解析客户端请求失败。 50010019:注册redis服务端返回失败。 50010020:redis read io exception。 50010021:接入机内部异常。 50010022:内存池不够。 50010023:处理客户端报文异常。 50010024:route 程序bug。 50010025:没有该分组权限。 50010026:实例密码错误。 50010027:集群版鉴权实例名错误。 50010028:客户端IP不在IP白名单内。 50010029: 用户时间失效。 50010030:解析报文失败。 50010031:鉴权信息不完整。 50010032:尚未通过鉴权,未获取到鉴权通过信息。 50010033:尚未通过鉴权,未获取到鉴权分组信息。 50010034:尚未选择分组,未获取到选择分组信息。 50010036:dborder越界。 50010037:获取接入机对应用户名失败。 50010038:订单服务冻结,获取接入机服务失败。 50010039:该分组不存在。 50010040:操作的集合个数不能超过10个。 50010041:每个集合的大小不能超过1000个。 50010042:接入机改造命令限制30k。 50010043:该账户禁止写数据。 50010044:读取redis返回报文串包。 50010047:订阅连接超时错误码。 50010048:接入机不支持的命令。 50010049:接入机read only错误。 50010050:redis内存满。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        Redis使用
        集群版客户端常见错误码有哪些?
      • 重置SASL_SSL密码
        本文主要介绍重置SASLSSL密码。 操作场景 在“用户管理”页签创建的SASLSSL用户,如果忘记了SASLSSL密码,通过重置SASLSSL密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 如果忘记了创建实例时设置的SASLSSL密码,请参考重置Kafka密码,重置密码。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置SASLSSL密码。 只有处于“运行中”状态的Kafka实例支持重置SASLSSL密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击待重置SASLSSL密码的Kafka实例名称,进入实例详情页面。 步骤 5 在“用户管理”页签,在待重置SASLSSL密码的用户所在行,单击“重置密码”。 步骤 6 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        SASL_SSL用户管理
        重置SASL_SSL密码
      • 重置Kafka密码
        本文主要介绍 重置Kafka密码。 操作场景 如果您忘记了创建实例时设置的SASLSSL密码,通过重置Kafka密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置Kafka密码。 只有处于“运行中”状态的Kafka实例支持重置Kafka密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重置Kafka密码。 在需要重置Kafka密码的Kafka实例右侧,单击“更多 > 重置Kafka密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,在“连接信息 > 用户名”后,单击“重置密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“用户管理”页签,在待重置Kafka密码的用户所在行,单击“重置密码”,弹出重置Kafka密码对话框。 步骤 5 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重置Kafka密码
      • 修改分区平衡
        分区平衡前的准备工作 在不影响业务的前提下,适当调小Topic老化时间并等待消息老化,减少迁移数据,加快迁移速度,分区平衡任务结束后可重新调整为初始值。 确保分区平衡的目标Broker磁盘容量充足。如果目标Broker磁盘剩余容量接近分区平衡迁移到该Broker上的数据量,为了给目标Broker上的消息生产预留存储空间,应先进行磁盘扩容,再进行分区平衡。 自动平衡 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“Topic管理”,进入Topic列表页面。 步骤 6 通过以下任意一种方法,修改分区平衡。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“一键平衡 > 自动平衡”。 在待修改分区平衡的Topic所在行,单击“更多 > 一键平衡 > 自动平衡”。 步骤 7 设置自动平衡参数。 在“Brokers列表”区域,勾选目标Broker的名称,Topic分区的副本即将迁移至目标Broker上。 在“Topic列表”区域,输入Topic需要自动平衡的副本数,副本数须小于等于Broker的数量。 在“带宽限制”中,输入带宽大小,默认值为“1”,表示不限制带宽。如果实例负载较低,建议不设置带宽限制。如果需要设置带宽限制,建议该参数值不小于待分区平衡Topic的总生产带宽 待分区平衡Topic的最大副本数。带宽限制值的估算方法,请参考带宽限制值估算方法。 图设置自动平衡参数 步骤 7 单击“确定”,自动跳转到Topic列表页面。 在Topic列表页面左上方单击“查看变更任务”,进入“后台任务管理”页面,查看分区平衡任务的状态。当“状态”为“成功”时,表示分区平衡完成。 说明 分区平衡任务启动后,不能删除正在进行分区平衡的Topic,否则会导致分区平衡任务无法结束。 分区平衡任务启动后,无法修改Topic的分区数。 分区平衡任务启动后,无法手动停止任务,需要等到任务完成。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改分区平衡
      • 1
      • ...
      • 11
      • 12
      • 13
      • 14
      • 15
      • ...
      • 241
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      弹性高性能计算 E-HPC

      训推服务

      模型推理服务

      科研助手

      一站式智算服务平台

      智算一体机

      知识库问答

      人脸属性识别

      推荐文档

      首页

      客户端下载安装

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号