云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RocketMQ版_相关内容
      • 安全方案
        身份认证 CTIAM 统一身份认证(Identity and Access Management, 简称:CTIAM)是提供用户进行权限管理的基础服务,可以帮助您安全的控制天翼云服务和资源的访问及操作权限,包括:用户身份认证、权限分配、访问控制等功能。具体介绍请参考统一身份认证产品介绍。 您可以创建IAM用户,并为其设置关分布式消息服务MQTT实例权限,该用户就可以通过用户名和密码访问授权的实例资源。具体请参见统一身份认证快速入门创建IAM用户。 访问控制 权限控制 购买分布式消息服务MQTT实例之后,您可以使用CTIAM为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,通过CTIAM进行精细的权限管理。 VPC和子网 虚拟私有云(Virtual Private Cloud,VPC)为分布式消息服务MQTT构建隔离、私密的虚拟网络环境,提升消息队列的安全性,并简化用户的网络部署。您可以完全掌控自己的专有网络,VPC丰富的功能帮助您灵活管理云上网络,包括创建子网、设置安全组和网络ACL、管理路由表、申请弹性公网IP和带宽等。通过子网与其他网络隔离,独享网络资源,提高网络安全性。具体内容请参见虚拟私有云用户指南创建虚拟私有云和子网 。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        安全方案
      • 执行流程
        执行流程概述在创建流程后,您可以通过多种方式触发、执行流程,并在执行后查看执行结果 流程支持以下触发方式:手动触发:在云工作流控制台直接启动流程。定时触发:设置定时任务,按照指定的时间周期自动执行流程 执行流程 概述 在创建流程后,您可以通过多种方式触发、执行流程,并在执行后查看执行结果 流程支持以下触发方式: 手动触发:在云工作流控制台直接启动流程。 定时触发:设置定时任务,按照指定的时间周期自动执行流程。 队列消息触发:通过将消息发送至消息队列来触发工作流流程。 事件触发:通过监听其他天翼云服务(如对象存储、云日志等)的事件来触发工作流流程。 HTTP触发:通过调用云工作流的API接口来启动流程。 本文将以云工作流控制台为例,演示如何执行流程并查看结果。 操作步骤 1. 登录云工作流控制台,然后在顶部菜单栏选择 地域(可选)。 2. 在左侧导航栏,选择 工作流列表 ,然后在 工作流列表页面,单击目标工作流。 3. 在工作流详情页面的 执行记录页 签,单击 启动执行 。在执行工作流面板,填写 执行名称 (可选)和 执行输入 (可选),然后单击 确定。 1. 注意事项: 若填写执行输入,需为合法 JSON 对象格式。 1. 执行完成后,您可在执行历史详情页中查看每个节点的执行结果、输入、输出、执行时间等详细信息,以确认流程按预期完成。 执行结果的详细介绍请参见工作流执行管理。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        快速入门
        执行流程
      • 修改同步复制和同步落盘
        本文主要介绍修改同步复制和同步落盘。 同步复制指后端收到生产消息请求并复制给所有副本后,才返回客户端。 同步落盘指生产的每条消息都会立即写入磁盘。 开启:生产的每条消息都会立即写入磁盘,可靠性更高。 关闭:生产的消息存在内存中,不会立即写入磁盘。 本章节指导您在控制台修改同步复制和同步落盘。 说明 修改同步复制/同步落盘,不会重启实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改同步复制和同步落盘。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改同步复制和同步落盘的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,开启或关闭同步复制和同步落盘,单击“确定”。 开启:单击。 关闭:单击。 说明 当副本数为1时,不能开启同步复制功能。 开启同步复制后,需要在客户端配置acksall或者1,否则无效。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改同步复制和同步落盘
      • 使用Kafka触发器
        本章介绍函数工作流如何使用Kafka触发器。 使用Kafka触发器后,FunctionGraph会定期轮询Kafka实例指定Topic下的新消息,FunctionGraph将轮询得到的消息作为参数传递来调用函数。 前提条件 进行操作之前,需要做好以下准备。 已经创建函数。 创建Kafka触发器,必须开启函数工作流VPC访问,请参见配置网络。 已经创建Kafka实例。 在Kafka实例下创建主题。 创建Kafka触发器 1、登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、选择待配置的函数,单击进入函数详情页。 3、选择“设置 > 触发器”,单击“创建触发器”,弹出“创建触发器”对话框。 4、设置以下信息。 触发器类型:选择“分布式消息服务(Kafka)”。 实例:选择已创建专享版Kafka实例。 主题:选择专享版Kafka实例的Topic。 批处理大小:每次从Topic消费的消息数量。 用户名:Kafka实例开启SSL时需要填写。连接Kafka专享版实例的用户名。 密码:Kafka实例开启SSL时需要填写。连接Kafka专享版实例的密码。 5、单击“确定”,完成kafka触发器的创建。 说明 开启函数流VPC访问后,需要在Kafka服务安全组配置对应子网的权限。如何开启VPC访问请参见 Kafka触发器当前支持选择多个Topic主题,从而避免Topic过多导致创建的触发器数量被限制。 配置Kafka事件触发函数。 1、返回函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、选择待配置的函数,单击进入函数详情页。 3、在函数详情页,选择函数版本。 4、在“代码”页签下,单击“测试”,弹出“配置测试事件”对话框。 5、填写如下表示测试信息后,单击“保存”。 测试信息 参数 说明 配置测试事件 可创建新的测试事件也可编辑已有的测试事件。选择默认值:“创建新的测试事件”。 事件模板 选择"kafkaeventtemplate"模板,使用系统内置Kafka事件模板。 事件名称 事件名称必须以大写或小写字母开头,支持字母(大写或小写),数字和下划线“”(或中划线“”),并以字母或数字结尾,长度为125个字符,例如kafka123test。 测试事件 自动加载系统内置kafka事件模板,本例不做修改。 6、单击“测试”,可以得到函数运行结果,函数会返回输入kafka消息数据。
        来自:
        帮助文档
        函数工作流
        用户指南
        配置触发器
        使用Kafka触发器
      • 代码示例
        本节介绍了RabbitMQ接入的代码示例。 安全接入点(PLAIN、AMQPLAIN授权机制) java import com.rabbitmq.client.; import java.io.IOException; public class RabbitmqAmqpDemo { public static void main(String[] args) throws Exception { String host "192.168.0.0"; //安全接入点ip Integer port 5672; //安全接入点port String username "xxx"; //集群管理用户列表的用户名 String password "xxx"; //集群管理用户列表的密码 String vhost "/"; String exchangeName "extest"; String queueName "qutest"; ConnectionFactory connectionFactory new ConnectionFactory(); connectionFactory.setHost(host); connectionFactory.setPort(port); connectionFactory.setUsername(username); connectionFactory.setPassword(password); connectionFactory.setVirtualHost(vhost); Connection connection connectionFactory.newConnection(); Channel channel connection.createChannel(); channel.exchangeDeclare(exchangeName, BuiltinExchangeType.DIRECT, true); channel.queueDeclare(queueName, true, false, false, null); channel.queueBind(queueName, exchangeName, "test"); String message "Hello Aop"; for (int i 0; i < 10; i++) { channel.basicPublish(exchangeName, "test", null, message.getBytes()); System.out.println("消息发送成功"); } Channel consumeChannel connection.createChannel(); Consumer consumer new DefaultConsumer(consumeChannel) { @Override public void handleDelivery(String consumerTag, Envelope envelope, AMQP.BasicProperties properties, byte[] body) throws IOException { String messageGet new String(body, "UTF8"); if (messageGet.equals(message)) { System.out.println("消息消费成功"); } } }; consumeChannel.setDefaultConsumer(consumer); consumeChannel.basicConsume(queueName, false, consumer); Thread.sleep(10000); } } SSL接入点(EXTERNAL授权机制) java import com.rabbitmq.client.; import javax.net.ssl.KeyManagerFactory; import javax.net.ssl.SSLContext; import javax.net.ssl.TrustManagerFactory; import java.io.FileInputStream; import java.io.IOException; import java.security.KeyStore; public class RabbitmqExternalDemo { public static void main(String[] args) throws Exception { String host "192.168.0.0"; //SSL接入点ip int port 5671; //SSL接入点port //以下2个ssl文件可通过控制台获取安装包, 具体的获取方式可以查看2.2.1接入步骤的第二小节 String ksFile "D:tmpsslclientrabbitmqkey.p12"; String tksFile "D:tmpssltruststore"; String vhost "/"; String exchangeName "extest"; String queueName "qutest"; char[] keyPassphrase "W3zT98Zz9Io".toCharArray(); KeyStore ks KeyStore.getInstance("PKCS12"); ks.load(new FileInputStream(ksFile), keyPassphrase); KeyManagerFactory kmf KeyManagerFactory.getInstance("SunX509"); kmf.init(ks, keyPassphrase); char[] trustPassphrase null; trustPassphrase "W3zT98Zz9Io".toCharArray(); KeyStore tks KeyStore.getInstance("JKS"); tks.load(new FileInputStream(tksFile), trustPassphrase); TrustManagerFactory tmf TrustManagerFactory.getInstance("SunX509"); tmf.init(tks); SSLContext c SSLContext.getInstance("tlsv1.2"); c.init(kmf.getKeyManagers(), tmf.getTrustManagers(), null); ConnectionFactory connectionFactory new ConnectionFactory(); connectionFactory.setHost(host); connectionFactory.setPort(port); connectionFactory.setVirtualHost(vhost); connectionFactory.setSaslConfig(DefaultSaslConfig.EXTERNAL); connectionFactory.useSslProtocol(c); Connection connection connectionFactory.newConnection(); Channel channel connection.createChannel(); channel.exchangeDeclare(exchangeName, BuiltinExchangeType.DIRECT, true); channel.queueDeclare(queueName, true, false, false, null); channel.queueBind(queueName, exchangeName, "test"); String message "Hello Aop"; for (int i 0; i < 10; i++) { channel.basicPublish(exchangeName, "test", null, message.getBytes()); System.out.println("消息发送成功"); } Channel consumeChannel connection.createChannel(); Consumer consumer new DefaultConsumer(consumeChannel) { @Override public void handleDelivery(String consumerTag, Envelope envelope, AMQP.BasicProperties properties, byte[] body) throws IOException { String messageGet new String(body, "UTF8"); if (messageGet.equals(message)) { System.out.println("消息消费成功"); } } }; consumeChannel.setDefaultConsumer(consumer); consumeChannel.basicConsume(queueName, false, consumer); Thread.sleep(10000); } }
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ接入
        代码示例
      • Logstash对接Kafka
        介绍Logstash对接Kafka具体内容。 应用场景 通过Logstash对接Kafka,可以实现以下功能: 1. 数据收集:Logstash可以从Kafka主题中消费数据,将数据从Kafka集群中获取到Logstash中进行处理和转发。这样可以方便地将分布式系统、应用程序、传感器数据等各种数据源的数据集中收集起来。 2. 数据处理和转换:Logstash提供了丰富的过滤器插件,可以对从Kafka中消费的数据进行各种处理和转换操作。例如,可以进行数据清洗、解析、分割、合并、字段映射等操作,以满足不同数据源和目标的数据格式要求。 3. 数据传输和转发:Logstash可以将处理后的数据发送到不同的目标位置,如Elasticsearch、MySQL、文件系统、消息队列等。通过配置适当的输出插件,可以将数据传输到目标系统,以便后续的数据分析、存储、可视化等操作。 4. 实时数据处理:Logstash与Kafka结合使用,可以实现实时的数据处理和传输。Kafka作为高吞吐量的消息队列,可以确保数据的高效传输和缓冲。而Logstash作为数据处理引擎,可以对从Kafka中消费的数据进行实时处理,满足实时数据分析和监控的需求。 5. 分布式部署和负载均衡:Logstash支持分布式部署,可以通过配置多个Logstash节点来实现高可用性和负载均衡。多个Logstash节点可以同时从Kafka主题中消费数据,并进行并行处理和转发,以提高整体系统的性能和吞吐量。 总之,通过Logstash对接Kafka,可以实现灵活、可扩展和高效的数据处理和传输。Logstash提供了丰富的插件和配置选项,可以根据实际需求进行定制化的数据处理流程。同时,Logstash还具有良好的可扩展性和可靠性,适用于各种规模和类型的数据处理场景。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Logstash对接Kafka
      • 云审计服务支持的MQTT操作列表
        关键操作列表 操作事件 读写类型 剔除客户端 写事件 退订客户端主题 写事件 启动mqtt服务 写事件 查询实例服务器列表 写事件 添加第三方认证授权插件 写事件 修改第三方认证授权插件 写事件 删除第三方认证授权插件 写事件 启用第三方认证授权插件 写事件 卸载第三方认证授权插件 写事件 新增认证用户 写事件 修改密码 写事件 删除认证用户 写事件 新增用户ACL 写事件 删除用户ACL 写事件 删除认证用户 写事件 服务端发送消息至MQTT队列 写事件
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的MQTT操作列表
      • Kafka磁盘选择超高IO还是高IO?
        本节介绍分布式消息服务Kafka磁盘类型 选择Kafka磁盘类型主要取决于应用的需求和预算。通常,对于Kafka来说,高IO磁盘是更常见的选择,因为它提供了更好的性能和吞吐量。 高IO磁盘具有更快的随机读写速度和更低的访问延迟。这对于Kafka来说非常重要,因为Kafka的性能和吞吐量受限于磁盘的读写速度。高IO磁盘适用于需要处理大量读写操作的场景,例如高频率的消息传递和数据写入。它可以提供更快的消息处理和更低的延迟,从而提高系统的响应性能。 超高IO磁盘也是一个可选的方案,它提供了更高的随机读写速度和更低的延迟,相对于传统的高IO磁盘来说性能更好。超高IO磁盘适用于对性能要求非常高的场景,例如大规模的实时数据处理和高吞吐量的消息队列。它可以提供更高的IOPS(每秒输入/输出操作数)和更低的延迟,从而支持更快的数据处理和更高的系统吞吐量。 综上所述,对于Kafka来说,一般情况下选择高IO磁盘是比较常见的选择,因为它提供了良好的性能和吞吐量。但如果预算允许,超高IO磁盘可以提供更高的性能和吞吐量,适用于对性能要求非常高的场景。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        计费与购买类
        Kafka磁盘选择超高IO还是高IO?
      • 重启实例
        本文主要介绍重启实例。 操作场景 分布式消息服务Kafka管理控制台支持重启运行中的Kafka实例,且可实现批量重启Kafka实例。 说明 在Kafka实例重启过程中,客户端的生产与消费消息等请求会被拒绝。 前提条件 只有当Kafka实例处于“运行中”或“故障”状态,才能执行重启操作。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重启Kafka实例。 勾选Kafka实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“重启”。 在待重启Kafka实例所在行,单击“重启”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“重启”。 步骤 5 在“重启实例”对话框中,单击“是”,完成重启Kafka实例。 重启Kafka实例大约需要3到15分钟。Kafka实例重启成功后,实例状态切换为“运行中”。 说明 重启Kafka实例只会重启实例进程,不会重启实例所在虚拟机。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重启实例
      • RabbitMQ元数据迁移
        本节介绍了RabbitMQ元数据迁移的实践。 RabbitMQ元数据迁移指将用户线下实例的rabbitmq实例元数据迁移到线上实例。 背景信息 RabbitMQ集群元数据是指RabbitMQ集群的信息,包括User、Vhost、Queue、Exchange、Binding Key、Permission、Parameter等信息。RabbitMQ集群元数据存储于RabbitMQ集群的内部数据库,在集群的各个节点之间自动复制。集群中的每个节点都有自己的元数据副本。当某个节点的元数据变更时,所有节点的元数据都会同步更新。因此,集群的各个节点的元数据被导出时都是相同的。RabbitMQ集群元数据可以被导出成一份JSON文件,然后被导入另一个RabbitMQ集群,实现RabbitMQ集群元数据备份。 迁移元数据上云是指将开源RabbitMQ集群的元数据迁移到天翼云分布式消息服务RabbitMQ实例。分布式消息服务RabbitMQ是天翼云提供的全托管消息队列服务,兼容开源RabbitMQ。您可以将RabbitMQ集群元数据导出,然后导入分布式消息服务RabbitMQ实例,分布式消息服务RabbitMQ会根据成功导入的元数据在目标分布式消息服务RabbitMQ实例中创建对应的Vhost、Queue、Exchange、Binding,实现RabbitMQ集群元数据迁移上云。您可以将全部Vhost信息导入分布式消息服务RabbitMQ实例,也可以根据需要将某个Vhost信息导入分布式消息服务RabbitMQ实例中的Vhost。 迁移元数据 (1)在RabbitMQ WebUI页面查看,如图所示。 Overview视图中,点击“Download broker definitions”按钮下载集群元数据。得到rabbitmq元数据的json文件。 (2)上线rabbitmq实例导入元数据。 如上图所示,先点击选择文件,选择上一步骤导出的json文件,再点击导入配置。 注意:在线下的Rabbitmq集群中不能含有用户名rabbitmq,否则会被覆盖。用户名rabbitmq是天翼云Rabbitmq内部使用的管理账号。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ元数据迁移
      • 修改Topic老化时间
        本文主要介绍 修改Topic老化时间。 老化时间即消息的最长保留时间,消费者必须在此时间结束前消费消息,否则消息将被删除。删除的消息,无法被消费。 创建Topic成功之后,您可以根据业务需要修改Topic的老化时间。修改老化时间,不会影响业务。Topic老化时间,默认为72小时。 修改老化时间可以通过以下方式实现: 在“Topic管理”中,修改老化时间。 在“配置参数”中,修改“log.retention.hours”参数值,具体步骤请参考修改配置参数。 说明 如果Topic已经设置了老化时间,此时“配置参数”中的log.retention.hours值将不对此Topic生效。仅在Topic中未设置老化时间时,“配置参数”中的log.retention.hours值才会对此Topic生效。例如:Topic01设置的老化时间为60小时,“配置参数”中的log.retention.hours值为72小时,此时Topic01实际的老化时间为60小时。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改Topic老化时间。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改老化时间的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,输入老化时间,单击“确定”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic老化时间
      • 按需转包周期
        本章节主要介绍分布式消息服务RabbitMQ按需转包周期。 按需付费的用户可以选择“转包周期”,变更实例计费模式为包年/包月。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,实现按需实例转包周期。 勾选RabbitMQ实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“转包周期”。 在待转包周期的RabbitMQ实例所在行,单击“更多 > 转包周期”。 单击RabbitMQ实例名称,进入实例详情页面。单击右上角的“更多 > 转包周期”。 步骤 5 单击“确定”,页面跳转到“按需转包周期”页面。 步骤 6 选择续费时长,然后单击“去支付”,根据界面提示信息,支付费用,完成实例转包周期操作。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        按需转包周期
      • 分布式消息服务RabbitMQ服务等级协议
        本章节介绍RabbitMQ服务等级协议。 自2021年11月11日起,新版分布式消息服务RabbitMQ服务等级协议(SLA)生效。详情请参见这里。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        相关协议
        分布式消息服务RabbitMQ服务等级协议
      • 旧资费
        说明 分布式消息服务Kafka旧资费根据实例规格分为基础版和高级版,存储空间按照不同类型收费。 目前在 芜湖2、上海7、重庆2、乌鲁木齐27、石家庄20、内蒙6、北京5 资源池开放订购。 实例价格如下: 规格 标准资费(元/月) 标准资费(元/小时) 基础版(100 MB/s) 1300 2.71 高级版(300 MB/s ) 2100 4.38 存储空间价格如下: 存储类型 标准资费(元/G/月) 标准资费(元/G/小时) 普通 IO 0.45 0.0008 高 IO 0.6 0.0013 超高 IO 1.5 0.0032
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        产品资费
        旧资费
      • ALM-14022 NameNode RPC队列平均时间超过阈值
        可能原因 NameNode节点的CPU性能不足,导致NameNode无法及时处理消息。 NameNode所设置的内存太小,频繁Full GC造成JVM卡顿。 NameNode配置参数不合理,导致NameNode无法充分利用机器性能。 HDFS的业务访问量太大,超过了NameNode的负载能力。 处理步骤 获取该告警的信息 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在告警列表中找到该告警。 2.单击该告警,查看下面的告警详情。从“产生时间”可知该告警的触发时间;从“定位信息”中的“主机名”信息可知发出该告警的NameNode节点主机名;从“定位信息”中的NameServiceName信息可知发出该告警的NameService名称。 查看是否阈值设置过低 3.查看依赖于HDFS的业务的运行状态是否正常运行。查看是否存在运行慢、执行任务超时的情况。 是,执行步骤8。 否,执行步骤4。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HDFS”,单击图表区域右上角的下拉菜单,单击“定制”,在弹出的对话框中选择“主NameNode RPC队列平均时间”,单击“确定”。 5.查看“主NameNode RPC队列平均时间”监控中,获取发出告警的NameService的当前的监控值。 6.在FusionInsight Manager首页,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > HDFS”,找到“主NameNode RPC队列平均时间”,单击default规则中“操作”栏中的“修改”,修改“阈值”为当前监控值的150%。单击“确定”,保存新阈值。 7.等待1分钟,查看该告警是否自动消除。 是,处理结束。 否,执行步骤8。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14022 NameNode RPC队列平均时间超过阈值
      • 支持审计的云产品及关键操作列表
        容器与中间件 分类 云产品 支持审计的关键操作列表 容器与中间件 云容器引擎 云容器引擎支持的关键操作列表 容器与中间件 容器镜像服务 容器镜像服务支持的关键操作列表 容器与中间件 分布式消息服务Kafka 分布式消息服务Kafka支持的关键操作列表 容器与中间件 弹性容器实例 弹性容器实例服务支持的关键操作列表 数据库 分类 云产品 支持审计的关键操作列表 数据库 关系型数据库MySQL版 关系型数据库MySQL版服务支持的关键操作列表 数据库 关系型数据库PostgreSQL版服务 关系型数据库PostgreSQL版服务支持的关键操作列表 数据库 关系型数据库SQL Server版 关系型数据库SQL Server版服务支持的关键操作列表 数据库 分布式关系型数据库 分布式关系型数据库支持的关键操作列表 数据库 文档数据库服务 文档数据库服务支持的关键操作列表 数据库 分布式缓存服务Redis版 分布式缓存服务Redis版支持的关键操作列表 数据库 数据传输服务DTS 数据传输服务DTS支持的关键操作列表
        来自:
        帮助文档
        云审计
        用户指南
        支持审计的云产品及关键操作列表
      • 删除实例
        删除创建失败的RabbitMQ实例 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,删除创建失败的RabbitMQ实例。 勾选RabbitMQ实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“删除”。 在创建失败的删除RabbitMQ实例所在行,单击“删除”。 步骤5 在“删除实例”对话框中,输入“DELETE”,单击“确定”,完成删除RabbitMQ实例。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        删除实例
      • 监控项说明
        本页介绍了文档数据库服务监控信息说明。 监控指标 说明 默认监控周期 默认监控频率 CPU 实例的CPU使用率,包括: sys(CPU运行于核心态时的使用率) 、usr(CPU运行于用户态时的使用率)。 1小时 1分钟 内存 实例的内存利用率,包括: 机器内存利用率 、数据库具体的内存使用情况。 1小时 1分钟 磁盘 实例相关的磁盘性能指标,包括:磁盘利用率、Iops:每秒读写操作数、每秒读写流量(kb) 、磁盘平均队列长度。 1小时 1分钟 连接 实例连接相关的指标,包括:连接数、连接数使用率。 1小时 1分钟 TPSQPS 数据库的读写相关性能指标,包括: 指令command操作数 、查询query操作数 、插入insert操作数 、删除delete操作数 、更新update操作数 、getmore操作数。 1小时 1分钟 请求 数据库的请求相关指标,包括:活跃写请求(Active Write)、活跃读请求(Active Read)、排队写请求(Queue Write)、排队读请求(Queue Read)。 1小时 1分钟 网络 实例的网络请求数量、流量。 1小时 1分钟 全局锁 实例当前等待全局锁的队列长度,包括:全局读锁的等待队列长度、全局写锁的等待队列长度、所有全局锁的等待队列长度。 1小时 1分钟 游标 实例当前使用的cursor数,包括:当前cursor打开数量、cursor超时数量。 1小时 1分钟 缺页错误数 进程每秒页面错误率。 1小时 1分钟 断言 包括:每秒平均增加的常规断言率 、每秒平均警告率 、每秒平均消息率 、每秒平均用户断言率。 1小时 1分钟 wiredtiger 存储引擎相关指标,包括: wiredtiger内存数据量 、wiredtiger内存脏数据量 、wiredtiger磁盘读入内存量 、wiredtiger内存写入磁盘量、Cache使用百分比、Cache脏数据百分比。 1小时 1分钟 oplog(副本集独有) 包括:主节点oplog可用时间 、主节点oplog生成速率 、主备oplog重叠时长 、主备延时。 1小时 1分钟
        来自:
        帮助文档
        文档数据库服务
        用户指南
        监控管理
        监控项说明
      • 生产者
        常量字段 说明 从哪个位置开始消费 建议设置为:ConsumeFromWhere.CONSUMEFROMFIRSTOFFSET.name() 消费组名称 消费者必要 最大消费线程数 针对push模式,默认64 最小消费线程数 针对push模式,默认20 消费超时时间 1.默认不设或设置<0:表示不做超时处理,应用自己处理签收2.设置>0:表示一旦超过此消费超时时间(应用未做签收),客户端将自动签收失败,消息进入重试队列。 namesrv 地址必要,例如:192.168.10.10:9876;192.168.10.11:9876 namesrv 用户名必填 namesrv 密码必填 ClusterName 客户端订阅broker的集群名,默认defaultMQBrokerCluster TenantID 租户ID,默认defaultMQTenantID
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        生产者
      • 设置Topic权限
        (可选)删除Topic权限 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 在导航栏单击“Topic管理”,进入Topic列表页面。 步骤 6 在待删除用户权限的Topic所在行,单击“设置用户权限”,弹出“设置用户权限”对话框。 步骤 7 在“已选择”区域,在待删除权限的SASLSSL用户所在行,单击“删除”,然后单击“确定”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        设置Topic权限
      • 创建Vhost
        本章节主要介绍如何创建Vhost。 操作场景 每个Vhost(Virtual Hosts)相当于一个相对独立的RabbitMQ服务器。Vhost用作逻辑隔离,分别管理Exchange、Queue和Binding,使得应用安全地运行在不同的Vhost上,相互之间不会干扰。一个实例下可以有多个Vhost,一个Vhost里可以有若干个Exchange和Queue。生产者和消费者连接RabbitMQ实例时,需要指定一个Vhost。Vhost的相关介绍,请参考官网文档Virtual Hosts。 本章节主要介绍创建Vhost的操作,有以下几种方式,您可以根据实际情况选择任意一种方式: 方式一:在控制台创建 方式二:使用RabbitMQ WebUI创建 方式三:调用API创建 方式一:在控制台创建 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击实例名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“Vhost列表”,进入Vhost列表页面。 步骤 6 单击“创建Vhost”,弹出“创建Vhost”对话框。 步骤 7 设置Vhost的名称,单击“确定”。 创建成功后,在Vhost列表页面显示创建成功的Vhost。 图1 Vhost列表(控制台) “tracing”表示是否开启消息追踪功能。开启消息追踪后,您可以跟踪消息的转发路径。 说明 Vhost创建成功后,无法修改名称。 实例创建后,会自动创建一个名为“/”的Vhost。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        Vhost管理
        创建Vhost
      • 入门指引
        本文主要介绍分布式消息服务RabbitMQ的入门指引。 本文将为您介绍分布式消息服务RabbitMQ入门的基本流程,主要包括控制台创建RabbitMQ实例、使用弹性云主机连接实例的操作,帮助您快速上手RabbitMQ。 操作流程 图1 RabbitMQ使用流程 环境准备 RabbitMQ实例运行于虚拟私有云中,在创建实例前需要确保有可用的虚拟私有云。 创建RabbitMQ实例 在创建实例时,您可以选择是否开启SSL访问,开启后,数据加密传输,安全性更高。同时,SSL开关只能在创建实例时设置,实例创建成功后,不支持修改。 连接实例 客户端连接实例,根据实例是否开启SSL开关,存在以下两种场景:不使用SSL证书连接和使用SSL证书连接。 配置必须的监控告警 配置RabbitMQ实例监控告警策略,监控实际业务运行状态。 说明 关于RabbitMQ的相关概念,请参考
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        入门指引
      • 配置DMS Kafka连接
        本章节主要介绍配置DMS Kafka连接。 连接DMS的Kafka队列时,相关参数详见下表:DMS Kafka连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 dmslink 服务类型 选择DMS Kafka版本,目前只有专享版。 专享版 Kafka Broker Kafka专享版实例的地址,格式为host:port。 Kafka SASLSSL 选择是否打开客户端连接Kafka专享版实例时SSL认证的开关。 开启Kafka SASLSSL,则数据加密传输,安全性更高,但性能会下降。 是 用户名 开启Kafka SASLSSL时显示该参数,表示连接DMS Kafka的用户名。 密码 开启Kafka SASLSSL时显示该参数,表示连接DMS Kafka的密码。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置DMS Kafka连接
      • 导出Topic
        本文主要介绍 导出Topic。 本章节指导您在控制台导出Topic,支持批量导出。 前提条件 已创建Topic。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 在页面右上角单击,导出Topic列表到本地。 Topic列表中包含如下信息:Topic名称、分区数、副本数、老化时间、是否同步复制或同步落盘。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        导出Topic
      • 重置实例密码
        本章节主要介绍如何重置分布式消息服务RabbitMQ实例的密码。 操作场景 如果您忘记了创建实例时设置的密码,通过重置密码功能,重新设置一个新的密码,使用新密码连接RabbitMQ实例。 说明 只有处于“运行中”状态的RabbitMQ实例支持重置密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,重置实例密码。 在待重置密码的实例所在行,单击“更多 > 重置密码”。 单击RabbitMQ实例名称,进入实例详情页面。单击右上角的“更多 > 重置密码”。 步骤 5 输入“新密码”和“确认密码”,单击“确定”完成密码重置。 重置密码成功,界面提示重置实例的密码成功。 重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        重置实例密码
      • Python
        本文介绍Python版本的RabbitMQ客户端连接指导,包括RabbitMQ客户端安装,以及生产、消费消息。 使用前请参考收集连接信息收集RabbitMQ所需的连接信息。 准备环境 1. 安装Python3 2. 安装kombu pip3 install kombu 生产消息 SSL认证方式 import ssl import sys from kombu import Connection, Exchange, Producer def Main(argv): cacertfile "certscacertificate.pem" certfile "certsclientrabbitmqcertificate.pem" privatekey "certsclientrabbitmqkey.pem" conn Connection('amqp://XXX:xxx/', loginmethod'EXTERNAL', ssl{ 'cacerts': cacertfile, 'keyfile': privatekey, 'certfile': certfile, 'certreqs': ssl.CERTREQUIRED, 'sslversion': ssl.PROTOCOLTLSv12, }) channel conn.channel() exchange Exchange("exampleexchange", type"direct") producer Producer(exchangeexchange, channelchannel, routingkey"testkey") message "Hello Rabbimtq" producer.publish(message, retryTrue) print('send message: %s' % message) if name 'main': Main(sys.argv) 非SSL认证方式 import sys from kombu import Connection, Exchange, Producer def Main(argv): rabbitmqurl 'amqp://USERNAME:PASSWORD@XXX:xxx/' conn Connection(rabbitmqurl, loginmethod'PLAIN') channel conn.channel() exchange Exchange("exampleexchange", type"direct") producer Producer(exchangeexchange, channelchannel, routingkey"testkey") message "Hello Rabbimtq" producer.publish(message, retryTrue) print('send message: %s' % message) if name 'main': Main(sys.argv) 消费消息 SSL认证方式 import sys import ssl from kombu import Connection, Exchange, Queue, Consumer def Main(argv): cacertfile "certscacertificate.pem" certfile "certsclientrabbitmqcertificate.pem" privatekey "certsclientrabbitmqkey.pem" conn Connection('amqp://XXX:xxx/', loginmethod'EXTERNAL', ssl{ 'cacerts': cacertfile, 'keyfile': privatekey, 'certfile': certfile, 'certreqs': ssl.CERTREQUIRED, 'sslversion': ssl.PROTOCOLTLSv12, }) exchange Exchange("exampleexchange", type"direct") queue Queue(name"examplequeue", exchangeexchange, routingkey"testkey") def processmessage(body, message): print("receive message: %s" % format(body)) message.ack() with Consumer(conn, queuesqueue, callbacks[processmessage], accept["text/plain"]): conn.drainevents(timeout2) if name 'main': Main(sys.argv)
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        开发指南
        Python
      • 管理Smart Connect任务
        本节介绍如何管理Smart Connect任务。 在创建Smart Connect任务后,可以在控制台对任务进行管理操作,包括查看任务、删除任务、启动/暂停任务、重启任务等。 前提条件 已创建Smart Connect任务。 查看Smart Connect任务 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击Smart Connect任务名称,进入Smart Connect任务详情页面。 7、查看Smart Connect任务的基本信息、源端信息和目标端信息。 说明 如果Smart Connect任务没有配置源端信息/目标端信息,在Smart Connect任务详情页面不显示源端信息/目标端信息。 结束 删除Smart Connect任务 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、在待删除的Smart Connect任务所在行,单击“删除”,弹出“删除任务”对话框。 7、单击“确定”,完成Smart Connect任务的删除。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        管理Smart Connect任务
      • 查看流控监控
        本文主要介绍 查看流控监控。 本章节指导您在控制台查看每个代理上用户/客户端/Topic的流控使用量。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控监控”,进入流控监控页面。 步骤 6 设置查询流控的参数。 表查询流控的参数说明 参数 说明 :: 统计方式 设置流控的统计方式。 前n个:统计带宽使用量排名前x 个的用户/客户端/Topic,x由您自行输入 带宽速率:统计带宽速率大于x MB/s的用户/客户端/Topic,x由您自行输入 带宽使用量:统计带宽使用量超过x %的用户/客户端/Topic,x由您自行输入 统计类型 设置流控的统计类型。 生产:统计生产消息的流控 消费:统计消费消息的流控 统计维度 设置流控的统计维度。 User/Client:统计用户/客户端的流控 Topic:统计Topic的流控 图 查询流控的参数 步骤 7 单击“查询”,查看每个代理上用户/客户端/Topic的流控使用量。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        查看流控监控
      • 删除流控
        本文主要介绍删除流控。 操作场景 本章节指导您在无需流控时,删除流控。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在待删除的流控所在行,单击“删除”,弹出“删除流控”对话框。 步骤 7 单击“是”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示成功删除流控。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        删除流控
      • 删除SASL_SSL用户
        本章节介绍如何删除SASLSSL用户。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 通过以下任意一种方法,删除SASLSSL用户。 在“用户管理”页签,在待删除的SASLSSL用户所在行,单击“删除”。 在“用户管理”页签,勾选SASLSSL用户名左侧的方框,可选一个或多个,单击信息栏左上侧的“删除”。 说明 创建Kafka实例时设置的SASLSSL用户无法删除。 步骤 6 在弹出的“删除用户”对话框中,单击“是”,完成SASLSSL用户的删除。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        SASL_SSL用户管理
        删除SASL_SSL用户
      • 创建SASL_SSL用户
        本文主要介绍 创建SASLSSL用户。 分布式消息服务Kafka支持对Topic进行ACL(Access Control List)权限管理,您可以在Topic中为不同的SASLSSL用户设置不同的权限,以达到SASLSSL用户之间的权限隔离。 本章节主要介绍Kafka实例开启SASLSSL后,如何创建SASLSSL用户。创建用户后,对Topic进行SASLSSL用户授权的操作,请参见设置Topic权限。 一个Kafka实例最多创建20个用户。 前提条件 创建Kafka实例时,已开启SASLSSL功能。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 在“用户管理”页签,单击“创建用户”。 步骤 6 在弹出的“创建用户”对话框中,设置用户名和密码,单击“确定”,完成用户的创建。 SASLSSL用户创建成功后,参考设置Topic权限为SASLSSL用户授权。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        SASL_SSL用户管理
        创建SASL_SSL用户
      • 管理安全报告
        此小节介绍企业主机安全管理安全报告。 若需对已订阅的报告内容进行修改、取消或关闭订阅,该章节将指导您完成相关操作。 约束限制 未开启企业版、旗舰版、网页防篡改版、容器版防护不支持安全报告相关操作。 编辑安全报告 1、登录管理控制台。 2、在页面左上角单击选择“区域”,选择“安全>企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。 说明 切换至新版后,在总览页左上角单击“返回旧版”,可切换至主机安全(旧版)。 4、左侧选择“安全报告”进入安全报告概览页面。服务预设了按月(default monthly security report)和按周(default weekly security report)统计的两个安全报告模板,可直接使用。 5、单击目标报告的“编辑”按钮,对报告进行编辑。 编辑报告 6、对报告基本信息进行编辑,参数说明如表所示。 编辑报告基本信息 报告基本信息参数说明 参数名称 参数说明 取值样例 报告名称 默认的报告名称。 default monthly security report 报告类型 报告的统计周期类型名称,不可编辑。 安全月报 报告发送时间 报告自动发送时间。 报告接收方式 生成的安全报告接收方式。 消息中心:使用消息中心和其它安全服务共同使用“安全事件通知”的信息接收人。需登录控制台,在右上角信箱查看。 消息主题:为HSS单独创建的主题,设置告警通知接收人。可选择短信或邮件通知。 无需发送到邮箱:不发送报告至邮箱。 消息中心 7、确认信息无误,单击页面右下角“下一步”,编辑报告内容。 8、在左侧勾选或取消报告项,右侧可预览,确认无误,单击“保存”,报告修改成功。
        来自:
        帮助文档
        企业主机安全
        用户指南
        安全报告
        管理安全报告
      • 1
      • ...
      • 10
      • 11
      • 12
      • 13
      • 14
      • ...
      • 241
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      公共算力服务

      模型推理服务

      科研助手

      知识库问答

      人脸实名认证

      人脸属性识别

      推荐文档

      产品优势

      入门教程④:Windows Service 2008系统扩容卷功

      VPC安全组删除规则

      新品上线

      产品优势

      共享协作

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号