云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式关系型数据库_相关内容
      • 获取SDK
        本章介绍了如何获取SDK。 引入依赖 java com.rabbitmq amqpclient 5.8.0
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ接入
        获取SDK
      • 如何检测弹性云主机与Redis之间的网络连接?
        本文介绍如何检测弹性云主机与Redis之间的网络连接 新建Redis实例后,或在使用过程中突然无法连接Redis实例时,您可以在ECS的命令行中使用PING命令检测ECS与Redis实例网络是否能够连通。 操作步骤: 1.获取Redis实例的连接地址,更多信息请参见查看链接地址 2.登录客户端所在的ECS实例,并在命令行中执行PING命令。例如Redis实例的连接地址为{IP},命令示例如下。 ping {IP} 说明 如果需要持续检测连通性请使用ping t命令。 Linux系统执行该命令后将会持续发送ping请求,您可以按下键盘上的Ctrl键加C键停止执行并统计结果。 结果分析: 如果所有请求都成功收到了回复,则连接正常。 如果未收到正常回复,则连接异常,常见失败原因如下: ECS异常行为触发安全策略,导致服务被禁止。请检查服务器,在安全组的出方向设置精确的规则,例如限定该ECS只能访问业务需要的地址和端口,此处为Redis实例的33016端口,更多信息请参见本节如何配置安全组 您的本地设备由于网络防火墙等自身原因,无法连接到Redis,请进行检查。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        网络与连接
        如何检测弹性云主机与Redis之间的网络连接?
      • 消息堆积最佳实践
        方案概述 Kafka将Topic划分为多个分区,消息被存储在不同的分区中。在同一个消费组内,一个消费者可同时消费多个分区,但一个分区在同一时刻只能被一个消费者消费。 在消息处理过程中,如果客户端的消费速度跟不上服务端的发送速度,未处理的消息会越来越多,这部分消息就被称为堆积消息。消息没有被及时消费就会产生消息堆积,从而会造成消息消费延迟。 导致消息堆积的常见原因如下: 生产者短时间内生产大量消息到Topic,消费者无法及时消费。 消费者的消费能力不足(消费者并发低、消息处理时间长),导致消费效率低于生产效率。 消费者异常(如消费者故障、消费者网络异常等)导致无法消费消息。 Topic分区设置不合理(leader副本都集中在部分Broker中、分区数太少),或新增分区无消费者消费。 Topic频繁重平衡导致性能下降,消费效率降低。 实施步骤 从消息堆积的原因看,消息堆积问题可以从消费者端、生产者端和服务端三个方面进行处理。 消费者端 根据实际业务需求,合理增加消费者个数(消费并发度),建议消费者数量和分区数保持一致。 提高消费者的消费速度,通过优化消费者处理逻辑(减少复杂计算、第三方接口调用和读库操作),减少消费时间。 增加消费者每次拉取消息的数量:拉取数据/处理时间 > 生产速度。 生产者端 生产消息时,给消息Key加随机后缀,使消息均衡分布到不同分区上。(在实际业务场景中,为消息Key加随机后缀,会导致消息全局不保序,需根据实际业务判断是否适合给消息Key加随机后缀。) 服务端 合理设置Topic的分区数,在不影响业务处理效率的情况下,调大Topic的分区数量。 当服务端出现消息堆积时,对生产者进行熔断,或将生产者的消息转发到其他Topic。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消息堆积最佳实践
      • SSL接入性能优化
        本文主要介绍消息队列 Kafka 通过SSL接入的最佳实践,从而帮助您更好的使用该产品。 文中的最佳实践基于消息队列 Kafka 的 Java 客户端;对于其它语言的客户端,其基本概念与思想是通用的,但实现细节可能有差异,仅供参考。 背景 云消息队列 Kafka 版实例如果选择SASLSSL接入时,可能会出现性能较差的情况。可以通过在客户端指定密码套件的方式,手动选择性能和安全性都较高的套件进行TLS通讯。 SSL握手时客户端发送Hello Client 并带上客户端支持的密码套件,服务端收到握手请求后,获取客户端带来的密码套件和服务端支持的密码套件取交集。密码套件加载顺序受客户端jdk版本影响,不同jdk版本,密码套件顺序不一样,可能会导致性能和安全性等无法保证。因此为了保证性能,SSL连接时客户端可以指定密码套件。 推荐的性能和安全性较高的密码套件 TLSECDHERSAWITHAES256GCMSHA384 TLSECDHERSAWITHAES128GCMSHA256 步骤 1.先按照SASLSSL协议接入Kafka,SASLSSL接入可参考文档 SASLSSL接入点接入 2.在此基础上增加 ssl.cipher.suites 配置 客户端关键参数 java Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SASLSSL"); props.put("sasl.mechanism", "SCRAMSHA512"); props.put(SaslConfigs.SASLJAASCONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username"testuser" password"f6eca4dbc78df78d63fba980e448185f";");//注:上面的密码f6eca4dbc78df78d63fba980e448185f,为用户管理里面创建用户时填入的密码进行md5的结果,md5取32位小写 props.put("ssl.truststore.location","/kafka/client.truststore.jks"); props.put("ssl.truststore.password","sJses2tin1@23"); props.put("ssl.endpoint.identification.algorithm",""); props.put("ssl.cipher.suites","TLSECDHERSAWITHAES256GCMSHA384,TLSECDHERSAWITHAES128GCMSHA256");//密码套件支持多个,用半角逗号分开
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        SSL接入性能优化
      • 消息广播
        Kafka 自身没有消息广播的语义,可以通过创建不同的 Consumer Group 来模拟实现。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消息广播
      • 消息过滤
        Kafka 自身没有消息过滤的语义。实践中可以采取以下两个办法: 如果过滤的种类不多,可以采取多个 Topic 的方式达到过滤的目的; 如果过滤的种类多,则最好在客户端业务层面自行过滤。 实践中请根据业务具体情况进行选择,也可以综合运用上面两种办法。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消息过滤
      • 【重要】默认安全组策略优化调整
        为了进一步提升云服务的安全性,加强实例访问的默认保护机制,对新创建RabbitMQ实例的默认安全组策略进行优化调整。 调整内容 自本公告发布之日起,新开通RabbitMQ实例使用的安全组未配置vpc内入方向安全组规则,将默认禁止同VPC内访问RabbitMQ实例服务端口。此变更旨在遵循最小权限安全原则,降低因配置疏忽导致的安全风险。 影响说明 若您使用的安全组未进行额外配置,新建的实例将无法被同VPC内的云主机访问。 应对措施 如需恢复VPC内访问,请您手动配置安全组规则,具体操作如下: 在安全组入方向规则中添加以下策略: 授权策略:允许。 协议类型:TCP。 端口范围:RabbitMQ实例服务端口。 源地址:您的VPC网段(如:192.168.0.0/16)。 配置完成后,同VPC内的云主机即可正常访问RabbitMQ实例服务。 建议 为保障业务安全,建议您根据实际需求精确设置访问源IP或网段,避免开放不必要的访问权限。 此次调整仅影响新创建的实例,已有实例的访问策略保持不变,不受此次调整影响。感谢您对云服务安全的支持与理解。如有疑问,请联系技术支持。 特此公告。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        服务公告
        2025年
        【重要】默认安全组策略优化调整
      • Redis 7.0 Cluster主备实例测试数据
        测试环境说明 项目 说明 测试实例规格 基础Cluster版双副本24G(3分片)。 测试实例引擎版本 7.0。 测试实例地域和可用区 上海36 可用区1。 压测机器的规格 c7.4xlarge.2。 压测机器的操作系统 CTyunOS 2.0.121.06.4 64位。 压测机器地域和可用区 上海36 可用区1。 压测机器网络 与Redis实例为相同VPC区,与Redis实例可通过VPC连接。 压测工具 redisbenchmark。 测试命令 redisbenchmark h ${host} p ${port} cluster a ${password} c ${connectionnum} n 20000000 d 32 r 2000000 t set,get threads 8 说明 参数说明,根据具体情况替换: ${host}: Redis连接地址 , ${port}:Redis服务端口,${password} : 密码 , ${connectionnum}: 连接数。 测试结果 以下测试结果仅供参考,不同的机器环境和网络波动等客观条件可能产生性能差异。 性能指标说明: 性能指标 说明 QPS Query Per Second,表示每秒处理的请求数,单位是次/秒。 延迟 操作的平均延迟时间,单位为毫秒(ms)。 %延迟 比如99%操作延迟,指99%操作的最大延迟时间,单位为毫秒(ms)。例如该指标的值为15毫秒,表示99%的请求可以在15毫秒内被处理 表1 SET 命令的测试结果 实例规格 CPU类型 连接数 QPS 平均延迟(ms) 95%延迟(ms) 99%延迟(ms) 基础Cluster版双副本24G(3分片) X86 1000 418480.09 2.302 3.143 3.751 基础Cluster版双副本24G(3分片) X86 3000 431322.66 6.691 9.167 12.191 基础Cluster版双副本24G(3分片) X86 10000 394960.31 23.996 36.127 207.999 表2 GET 命令的测试结果 实例规格 CPU类型 连接数 QPS 平均延迟(ms) 95%延迟(ms) 99%延迟(ms) 基础Cluster版双副本24G(3分片) X86 1000 454215.09 2.116 2.487 2.855 基础Cluster版双副本24G(3分片) X86 3000 445960.72 6.486 7.359 208.511 基础Cluster版双副本24G(3分片) X86 10000 417466.81 23.029 31.855 237.823
        来自:
        帮助文档
        分布式缓存服务Redis版
        性能白皮书
        Redis 7.0 Cluster主备实例测试数据
      • 【重要】默认安全组策略优化调整
        为了进一步提升云服务的安全性,加强实例访问的默认保护机制,对新创建Kafka实例的默认安全组策略进行优化调整。 调整内容 自本公告发布之日起,新开通Kafka实例使用的安全组未配置vpc内入方向安全组规则,将默认禁止同VPC内访问Kafka实例服务端口。此变更旨在遵循最小权限安全原则,降低因配置疏忽导致的安全风险。 影响说明 若您使用的安全组未进行额外配置,新建的实例将无法被同VPC内的云主机访问。 应对措施 如需恢复VPC内访问,请您手动配置安全组规则,具体操作如下: 在安全组入方向规则中添加以下策略: 授权策略:允许。 协议类型:TCP。 端口范围:Kafka实例服务端口。 源地址:您的VPC网段(如:192.168.0.0/16)。 配置完成后,同VPC内的云主机即可正常访问Kafka实例服务。 建议 为保障业务安全,建议您根据实际需求精确设置访问源IP或网段,避免开放不必要的访问权限。 此次调整仅影响新创建的实例,已有实例的访问策略保持不变,不受此次调整影响。感谢您对云服务安全的支持与理解。如有疑问,请联系技术支持。 特此公告。
        来自:
      • 收集连接信息
        Kafka实例信息准备 实例连接地址与端口 实例创建后,从Kafka实例控制台的实例详情页签中的接入点信息栏获取。若Kafka实例为集群部署,至少有3个连接地址,在客户端配置时,建议将地址都配上。 如果开启公网访问,还可以使用实例详情页签中的接入点信息栏中的公网连接地址访问Kafka实例。 Topic名称 从Kafka实例控制台的Topic管理页签中获取Topic名称。 SASL信息 如果实例创建时开启SASL访问,则需要获得SASLSSL用户名与密码、SSL证书、Kafka安全机制和SASL认证机制。 SASL用户名在Kafka实例控制台的“用户管理”页签中查看,如果忘记密码,可以点击“修改”重置密码。 SSL证书 SSL证书,在Kafka实例控制台的实例详情页中的接入点信息栏,选择希望的接入类型,点击其右侧的“查看所有IP和端口信息”,在弹窗中点击SSL接入点右侧的“下载”按钮即可获得。 使用Java语言连接实例时,需要用jks格式的证书。使用Python语言连接实例时,需要用pem格式的证书(可通过jks格式证书转换)。
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        收集连接信息
      • 测试工具介绍
        编译安装(仅限Linux操作系统) 从源码上编译上安装。 1. 下载源码: redis7.2.4.tar.gz 2. 解压缩安装包 tar zxf redis7.2.4.tar.gz 3. 编译 cd redis7.2.4 make 4. 安装 make install 性能测试建议 为了排除网络或其他因素干扰, 建议Redis服务、ECS机器都是在同一个VPC区、可用区、子网和安全组。 而且压测的ECS机器也关闭了所有的防火墙。
        来自:
        帮助文档
        分布式缓存服务Redis版
        性能白皮书
        测试工具介绍
      • 概述
        Kafka实例完全兼容开源Kafka协议,可以直接使用kafka开源客户端连接。如果使用SASL认证方式,则在开源客户端基础上使用云服务提供的证书文件。 本指南主要介绍实例连接信息的收集,如获取实例连接地址、SASL连接使用的证书、公网访问信息等,然后提供Java、Python和Go等语言的连接示例。 本指南的示例仅展示Kafka的API调用,生产与消费的API集,请参考Kafka官网。
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        概述
      • 分析与诊断
        操作场景 分析与诊断功能,该功能能够主动排查集群问题和隐患,包括资源使用情况,业务堆积与抖动异常等。自动生成健康报告,帮助用户快速获取关键信息、获得修复建议,实现从问题发现到解决的全链路运维闭环。 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在实例列表页的操作列,目标实例行点击“管理”按钮。 4. 点击“智能运维”、“分析与诊断”菜单进入分析与诊断管理页面。 5. 点击“创建诊断请求”按钮。 6. 在弹窗选择消费组与Topic,点击“确定”按钮。 7. 诊断正常结束后,可以点击诊断详情,可在页面查看最新诊断和历史诊断结果。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        智能运维
        分析与诊断
      • 数据同步服务
        4. 约束 源实例和目标实例处于同一VPC同一子网,默认可直接使用数据同步服务进行迁移操作,否则需要对两个实例网络进行打通。 请确保源实例、目标实例未因白名单设置、安全组设置而导致连接不通。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        数据同步服务
      • 使用RedisShake工具离线迁移其他云厂商Redis Cluster集群
        set to true if target is a redis cluster address "ip:port" when cluster is true, set address to one of the cluster node username "" keep empty if not using ACL password "" keep empty if no authentication is required tls false 6、在线迁移,同步数据。 使用如下命令同步源Redis集群和目标Redis集群数据: ./redisshake shake.toml 执行日志中出现如下信息,代表同步完成: all done 7、迁移后验证。 数据同步结束后,可使用rediscli工具连接DCS 实例,通过dbsize查看Key数量,确认数据是否完整导入。 如果数据不完整,可使用flushall或者flushdb命令清理实例中的缓存数据后重新同步。 8、清理RedisShake配置文件。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        其他云厂商Redis迁移至DCS
        使用RedisShake工具离线迁移其他云厂商Redis Cluster集群
      • 代理版本升级
        布式缓存Redis读写分离或Proxy集群类型实例创建后,支持在控制台上升级实例的代理版本。 前提条件 1. Redis缓存实例处于“运行中”状态。 2. Redis缓存实例类型为读写分离或Proxy集群。 影响须知 代理版本升级不会更改实例的规格,仅升级代理的版本。 代理版本升级时会出现1~3次30秒内的连接闪断。 代理版本执行升级一般需要几分钟,升级期间控制台其他功能不可用,建议在业务低峰期操作。 升级完成后,实例的实例ID、连接地址、数据、白名单配置以及已创建的账号密码配置等均不会改变。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页,单击目标实例名称进入实例详情页面。 4. 在实例详情页面,点击代理版本后的“升级”按钮,选择需要升级的版本,点击升级,提交升级任务。 说明: 如果代理版本后没有升级按钮,表明该实例没有可升级的代理版本。 5. 升级一般需要几分钟完成。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例生命周期管理
        代理版本升级
      • 使用Redis-cli迁移自建Redis(RDB文件)
        本文介绍使用Rediscli迁移自建Redis(RDB文件) 迁移介绍 Rediscli 是 Redis 自带的命令行客户端工具,它允许用户通过命令行与 Redis 服务器进行交互 如果 Redis 服务不支持获取 AOF 文件,你可以尝试使用 Rediscli 工具获取 RDB 文件,并通过其他工具(如 RedisShake)将其导入到 DCS 缓存实例中。 说明 源Redis实例必须支持“SYNC”命令,因为使用Rediscli导出RDB文件依赖SYNC命令。 步骤1:导出前准备 对于主备或集群实例,由于数据写入 RDB 文件存在一定的时延,你可以在迁移之前先了解待迁移 Redis 实例的 RDB 策略配置(策略配置位于 redis.conf 文件中) 为确保 RDB 文件包含完整的缓存数据,建议先暂停业务系统 步骤2:导出RDB文件 说明 建议业务空闲时间进行迁移操作。 待导出的源Redis为集群模式时,需要对集群的每个节点逐一执行导出操作,然后再逐一导入到目标Redis中。 使用如下命令导出RDB文件: ./rediscli h {redisaddress} p {redisport} a {password} rdb {output.rdb} 执行命令后回显"Transfer finished with success.",表示文件导出成功。 步骤3:上传RDB文件至天翼云ECS 为节省传输时间,请先压缩RDB文件再传输。 将压缩文件(如以SFTP/SCP等方式)上传到天翼云ECS。 说明 ECS需保证有足够的磁盘空间,供数据文件存储,同时需要与缓存实例网络互通,通常要求相同VPC和相同子网,且安全组规则不限制访问端口。 步骤4:导入数据 可借助RedisShake工具完成数据导入。 步骤5:迁移后验证 数据导入成功后,请连接DCS缓存实例,通过dbsize命令,确认数据是否导入成功 如果导入不成功,需要分析原因,修正导入语句,然后使用flushall或者flushdb命令清理实例中的缓存数据,并重新导入。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        自建Redis迁移到DCS
        使用Redis-cli迁移自建Redis(RDB文件)
      • 开启IPv6
        前提条件 实例所在的VPC和子网需要支持IPv6。 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在实例列表页的操作列,目标实例行点击“管理”。 4. 点击“实例详情”后进入实例详情界面,该页面展示实例详情的具体信息。 5. 选择“接入点信息”模块,点击其右上角的“添加接入方式”按钮。 6. 在弹窗的接入类型选择“VPC网络(IPv6)”,之后点击“确认”即可开启IPv6。 7. 或者直接在实例订购页面选择开启IPv6。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        开启IPv6
      • 开启公网访问
        场景描述 在某些情况下,您可能需要将Kafka开启公网访问。以下是一些可能的场景描述: 跨地域数据传输:如果您有多个位于不同地理位置的数据中心或云服务提供商,您可能希望在它们之间传输数据。通过将Kafka开启公网访问,您可以轻松地在不同地区之间进行数据传输。 跨组织数据共享:如果您需要与其他组织或合作伙伴共享数据,而且这些组织不在同一个网络环境中,您可以将Kafka开启公网访问,以便安全地共享数据。 远程访问和监控:有时候,您可能需要从外部网络访问和监控Kafka集群。通过配置Kafka开启公网访问,您可以远程连接到Kafka集群,监控其运行状态,并执行必要的管理操作。 请注意,在设置Kafka开启公网访问时,确保采取适当的安全措施,比如使用安全组或者用户权限来限制访问权限,以保护Kafka集群的安全性。 约束与限制 开启公网访问功能只支持绑定IPv4弹性IP地址,不支持绑定IPv6弹性IP地址。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“实例详情”后找到如下接入点信息模块。 (5)点击右上角“添加路由策略”按钮,选择“公网接入”方式。 (6)需要为每个节点设置对应的弹性IP地址,点击其右侧的“绑定”按钮,在弹窗中选择某个弹性IP绑定。如果没有足够数量的弹性IP地址,可参考申请弹性IP购买弹性IP地址。 (7)点击刷新按钮查看弹性IP绑定状态,待所有节点都绑定弹性IP后点击“确定”按钮下发开启公网后台任务。 (8)当实例状态重新变为“运行中”后,表示开启公网访问成功。 (9)开启公网访问后,需要设置好对应的安全组规则 才能成功连接Kafka,设置规则参考如下: 安全组参考规则(先判断安全组的出/入方向是否放通了对弹性ip地址的访问,如果没有,可以参考如下规则配置): 方向 协议 类型 端口 远端(源地址) 说明 入方向 TCP IPv4 Kafka公网接入端口(8094),或更大范围 Kafka客户端所在的IP地址或地址组 通过公网访问Kafka (10)如果创建了 网络ACL规则 ,则ACL规则也需要正确配置才能成功连接Kafka,设置规则参考如下: 网络ACL参考规则(先判断网络ACL的出/入方向是否放通了客户端地址的访问,如果没有,可以参考如下规则配置): 方向 协议 IP版本 策略 源地址 源端口范围 目的地址 目的端口范围 描述 入方向 TCP IPv4 允许 Kafka客户端所在的IP地址或地址组 165535 VPC IP地址组 Kafka公网接入端口(8094),或更大范围 控制入方向ACL规则 出方向 TCP IPv4 允许 VPC IP地址组 Kafka公网接入端口(8094),或更大范围 Kafka客户端所在的IP地址或地址组 165535 控制出方向ACL规则 (11)连接Kafka可以根据开启公网访问时选择的SASLPLAINTEXT或SASLSSL协议接入。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        开启公网访问
      • 创建Kafka自定义策略
        本文介绍创建Kafka自定义策略 如果系统预置的Kafka权限,不满足您的授权要求,可以创建自定义策略。自定义策略中可以添加的授权项请参考主子账号和IAM权限管理。 目前天翼云支持可视化视图和JSON视图两种方式设置策略内容,详细介绍请查看统一身份认证用户指南权限管理自定义策略 创建自定义策略 可视化视图:通过可视化视图创建自定义策略,无需了解JSON语法,按可视化视图导航栏选择云服务、操作、资源、条件等策略内容,可自动生成策略。 JSON视图:通过JSON视图创建自定义策略,可以在选择策略模板后,根据具体需求编辑策略内容;也可以直接在编辑框内编写JSON格式的策略内容。 Kafka自定义策略样例 以下策略样例表示:仅允许IAM用户使用Kafka主题管理、实例列表功能 { "Version": "1.1", "Statement": [ { "Effect": "Allow" "Action": [ "KAFKA:inst:kafkamanagetopic", "KAFKA:inst:kafkaclusterlist" ] } ] }
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        权限管理
        创建Kafka自定义策略
      • 配置必须的监控告警
        指标ID 指标名称 告警策略 指标说明 告警处理建议 brokerbytesin 节点流量告警 告警阈值:原始值>50MB/s 持续时间:可自定义 告警级别:重要 该指标为从Kafka节点虚拟机层面采集的数据写入流量。 出现该告警时,先检查该监控是否长期处于接近或超过告警阈值状态,如果是,需要修改实例代理个数,即扩节点。具体操作请参考 brokermessagein 节点tps告警 告警阈值:原始值>10000 持续时间:可自定义 告警级别:重要 该指标为从Kafka节点虚拟机层面采集的tps。 出现该告警时,先检查该监控是否长期处于接近或超过告警阈值状态,如果是,需要修改实例代理个数,即扩节点。具体操作请参考 topicbytesin 主题流量告警 告警阈值:原始值>50MB/s 持续时间:可自定义 告警级别:重要 该指标为从topic机层面采集的数据写入流量。 出现该告警时,先检查该监控是否长期处于接近或超过告警阈值状态,如果是,需要修改实例代理个数,即扩节点。具体操作请参考 topicmessagein 主题tps告警 告警阈值:原始值>10000 持续时间:可自定义 告警级别:重要 该指标为从topic机层面采集的tps。 出现该告警时,先检查该监控是否长期处于接近或超过告警阈值状态,如果是,需要修改实例代理个数,即扩节点。具体操作请参考 grouptotallag 消费组堆积数告警 告警阈值:原始值>10000 持续时间:可自定义 告警级别:重要 该指标为统计的消费组未消费的消息堆积量 出现该告警时,请先检测消费者客户端消费速度是否过慢,检查消费者客户端是否有扩充的可能(消费者客户端数量和对应tpic的分区数相等)
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        配置必须的监控告警
      • 编译运行Demo Java工程
        介绍连接Kafka编译运行Demo Java工程 kafkaclients引入依赖 在使用Kafka时,你需要在你的项目中引入相应的依赖。具体的依赖项可能会因你的项目和需求而有所不同。在使用Kafka之前,请确保查阅官方文档以获取最新的依赖项和使用说明。 以Java编程语言为例,可以使用Kafka的Java客户端库。你可以在Maven或Gradle构建工具中添加以下依赖项: org.apache.kafka kafkaclients 示例代码 1. 从控制台获取以下信息 连接地址 实例连接地址从控制台实例详情菜单处获取,在实例详情页面的接入点信息一栏。 Topic名称 在Topic管理页面,选择需要的Topic名称。 消费组名称 在消费组管理页面,选择需要的消费组名称。 2. 在实例代码中替换以上信息即可实现消息。 import org.apache.kafka.clients.producer.Callback; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import org.apache.kafka.common.serialization.StringSerializer; import java.util.Properties; public class Producer { private final KafkaProducer producer; public final static String TOPIC "testtopic"; public final static String BROKERADDR "192.168.0.11:8090,192.168.0.9:8090,192.168.0.10:8090"; public Producer() { Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.ACKSCONFIG, "all"); props.put("retries",3); producer new KafkaProducer<>(props); } public void produce() { try { for (int i 0; i (TOPIC, data), new Callback() { public void onCompletion(RecordMetadata metadata, Exception exception) { if (exception ! null) { // TODO: 异常处理 exception.printStackTrace(); return; } System.out.println("produce msg completed, partition id " + metadata.partition()); } }); } } catch (Exception e) { // TODO: 异常处理 e.printStackTrace(); } producer.flush(); producer.close(); } public static void main(String[] args) { Producer producer new Producer(); producer.produce(); } } 3. 同样在实例代码中替换以上信息即可消费消息。 import org.apache.kafka.clients.consumer.ConsumerConfig; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer; import java.util.Arrays; import java.util.Properties; public class Consumer { private org.apache.kafka.clients.consumer.Consumer consumer; private static final String GROUPID "testgroup"; private static final String TOPIC "testtopic"; public final static String BROKERADDR "192.168.0.11:8090,192.168.0.9:8090,192.168.0.10:8090"; public Consumer() { Properties props new Properties(); props.put(ConsumerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ConsumerConfig.GROUPIDCONFIG, GROUPID); props.put(ConsumerConfig.AUTOOFFSETRESETCONFIG, "earliest"); props.put(ConsumerConfig.ENABLEAUTOCOMMITCONFIG, "false"); props.put(ConsumerConfig.KEYDESERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); props.put(ConsumerConfig.VALUEDESERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); consumer new KafkaConsumer<>(props); } public void consume() { consumer.subscribe(Arrays.asList(TOPIC)); while (true){ try { ConsumerRecords records consumer.poll(1000); System.out.println("the numbers of topic:" + records.count()); for (ConsumerRecord record : records) { System.out.println("the data is " + record.value()); } }catch (Exception e){ // TODO: 异常处理 e.printStackTrace(); } } } public static void main(String[] args) { new Consumer().consume(); } }
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        编译运行Demo Java工程
      • Web CLI中支持和禁用命令
        本文主要介绍管理控制台Web CLI工具的命令兼容性,列举支持和禁用的命令列表 Web CLI支持的命令 Web Cli 支持开源redis的绝大部分命令, 具体命令是否支持需要依赖redis实例的版本支持。 注意 建议不要使用任何阻塞类型的命令, 包括monitor , blpop等短时间内无法返回的命令。 也不执行可能会影响redis正常运行的命令,比如涉及大数据量或BIG KEY的等命令。 Web CLI禁用的命令 禁止命令:subscribe。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        开源命令兼容性
        Web CLI中支持和禁用命令
      • 【重要】默认安全组策略优化调整
        为了进一步提升云服务的安全性,加强实例访问的默认保护机制,对新创建Redis实例的默认安全组策略进行优化调整。 调整内容 自本公告发布之日起, 新开通redis实例使用的安全组未配置vpc内入方向安全组规则,将默认禁止同VPC内访问Redis服务端口(6379)。此变更旨在遵循最小权限安全原则,降低因配置疏忽导致的安全风险。 影响说明 若您使用的安全组未进行额外配置,新建的Redis实例将无法被同VPC内的云主机访问。 应对措施 如需VPC内访问,请您手动配置安全组规则,具体操作如下: 在安全组入方向规则中添加以下策略: 授权策略:允许。 协议类型:TCP。 端口范围:Redis的服务端口(如:6379)。 源地址:您的VPC网段(如:192.168.0.0/16)。 配置完成后,同VPC内的云主机即可正常访问Redis服务。 建议 为保障业务安全,建议您根据实际需求精确设置访问源IP或网段,避免开放不必要的访问权限。 此次调整仅影响新创建的实例,已有实例的访问策略保持不变,不受此次调整影响。感谢您对云服务安全的支持与理解。如有疑问,请联系技术支持。 特此公告。
        来自:
        帮助文档
        分布式缓存服务Redis版
        服务公告
        2025年
        【重要】默认安全组策略优化调整
      • 按需与包周期互转
        本节主要介绍按需与包周期互转 概述说明 计费模式为按需计费的用户,可以对实例进行“转包周期”操作,变更实例计费模式为包年/包月。 计费模式为包年/包月计费的用户,可以对实例进行“转按需”,包年/包月到期后变更实例计费模式为按需计费。 按需转包周期 前提条件 只有通过实名认证的客户,才可以执行包年/包月转按需操作。 当前Redis实例的计费模式是“按需计费”。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页,选择计费模式为按需计费的实例,点击【更多>转包周期】,跳转到转包周期订购页面。 4. 在转包周期订购页面,选择“购买时长”后,单击“提交订单”。 5. 根据界面提示信息,支付费用,完成实例转包周期操作。 包周期转按需 前提条件 只有通过实名认证的客户,才可以执行包周期转按需操作。 当前Redis实例的计费模式是“包周期”。 在续订管理页面,资源状态是“在用”的Redis实例才能执行到期转按需。 包周期资源未到期可以申请变更为按需,但包周期结束后按需计费模式才生效。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页,选择计费模式为包周期的实例,点击【更多>到期转按需】,跳转到续订管理页面。 4. 进入续订管理页面,选择需要转按需的实例,点击【到期转按需】。 5. 查看资费变更的相关信息后,单击“转按需”,即可完成包周期转按需操作。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例生命周期管理
        按需与包周期互转
      • 退订
        本节主要介绍如何退订实例 Redis管理控制台支持退订实例,对于闲置不再使用的Redis实例,您可以将其退订以节省资源。 注意事项 仅状态为运行中的实例允许被退订。 包年/包月付费实例在退订后保留15天,15天后将会被回收。 按需计费实例退订后将会被立即回收。 警告:本操作会导致实例(含数据)在被回收时被立即删除,请谨慎操作。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在实例列表页面选择实例,点击”更多>退订“按钮,进入实例退订页面。 4. 在实例退订页面,点击右下角“确定”按钮即可完成退订操作。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例生命周期管理
        退订
      • 购买类
        为什么可用区不能选择2个? 所有不同规格的Kafka集群实例都是3个Zookeeper节点,并且是通过Zookeeper集群进行管理配置的,Kafka依赖Zookeeper,如果Zookeeper集群出现问题,Kafka将无法正常运行。 一个Zookeeper集群正常运行,至少需要2个Zookeeper节点正常运行。 假设允许可用区选择2个,可用区1有1个Zookeeper节点,可用区2有2个Zookeeper节点。如果可用区1故障,则集群实例能正常使用;如果可用区2故障,则集群不能正常使用。集群可用的场景只有50%,所以不支持选择2个可用区 如何选择Kafka实例的存储空间? 存储空间,主要是指用于存储消息所需要的空间,选择时包括选择磁盘规格和大小,磁盘规格,当前支持“超高IO”和“高IO”两种类型。 假设业务存储数据保留天数内磁盘大小为100GB,则磁盘容量最少为100GB副本数 + 预留磁盘大小100GB。Kafka集群中,每个Kafka节点会使用33G的磁盘作为日志和Zookeeper数据的存储,因而实际可用存储会小于购买存储。 其中,副本数在创建Topic时可以选择,默认为3副本存储。 Kafka实例的超高IO和高IO如何选择? 高IO:平均时延13ms,最大带宽150MB/s(读+写)。 超高IO:平均时延1ms,最大带宽350MB/s(读+写)。 建议选择超高IO,云硬盘服务端压力大场景,都不能达到最大带宽,但是超高IO可达到的带宽比高IO高很多。 如何选择Kafka实例存储容量阈值策略? 当前支持以下两种策略: 生产受限策略 该策略场景下一旦磁盘使用达到容量阈值95%,会导致后续生产失败,但保留了当前磁盘中的数据,直至数据自然老化(Kafka原有的老化机制,数据默认保留3天)。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 自动删除策略 该策略场景下磁盘使用到达容量阈值之后,以一个segment文件为单位(1GB),会自动删除最早的segment文件,保证生产业务能继续正常运行。该场景优先保障业务不中断,数据可能会丢失。 以上两种策略的需要基于业务对数据和业务的可靠性来进行选择,只能作为极端场景下的一个种处理方式。建议业务购买时保证有充足的磁盘容量,避免磁盘的使用达到容量阈值。 Kafka实例的Topic数量是否有限制? 在Kafka使用过程中,Topic数量本身无限制,但Topic的分区数之和有上限,当达到上限后,会导致用户无法继续创建Topic。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        常见问题
        购买类
      • 计费方式
        包年包月 专属云Kafka当前仅支持包年、包月的计费方式。 且按天翼云的包年订购优惠策略享受相关的一次性包年订购优惠。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        计费说明
        计费方式
      • 连接未开启SASL的Kafka专享实例
        ./kafkaconsoleproducer.sh brokerlist 10.3.196.45:9092,10.78.42.127:9092,10.4.49.103:9092 topic topicdemo >Hello >DMS >Kafka! >^C[root@ecskafka bin] 如需停止生产使用Ctrl+C命令退出。 执行如下命令消费消息。 ./kafkaconsoleconsumer.sh bootstrapserver ${连接地址} topic ${Topic名称} group ${消费组名称} frombeginning 参数说明如下: 连接地址:从前提条件中获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 消费组名称:根据您的业务需求,设定消费组名称。 示例如下: [root@ecskafka bin] ./kafkaconsoleconsumer.sh bootstrapserver 10.3.196.45:9092,10.78.42.127:9092,10.4.49.103:9092 topic topicdemo group ordertest frombeginning Kafka! DMS Hello ^CProcessed a total of 3 messages [root@ecskafka bin] 如需停止消费使用Ctrl+C命令退出。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        用户指南
        连接未开启SASL的Kafka专享实例
      • 如何配置MQTT开源Java SDK的客户端自动连接?
        本文介绍如何配置MQTT开源Java SDK的客户端自动连接 要配置MQTT开源Java SDK的客户端自动连接,你需要设置以下参数和逻辑: 1、 设置自动重连:首先,你需要设置客户端的自动重连功能。在MQTT开源Java SDK中,你可以使用setAutomaticReconnect(true)方法来启用自动重连功能。这将使客户端在连接丢失后自动尝试重新连接。 MqttClient client new MqttClient(brokerUrl, clientId); client.setAutomaticReconnect(true); 2、 设置重连间隔:接下来,你可以设置自动重连的时间间隔。这将确定客户端在连接丢失后尝试重新连接的时间间隔。在MQTT开源Java SDK中,你可以使用setReconnectDelay方法来设置重连间隔,单位为毫秒。 client.setReconnectDelay(5000); // 设置重连间隔为5秒 3、 处理连接丢失事件:当连接丢失时,你可以通过实现MqttCallback接口来处理连接丢失事件。在connectionLost方法中,你可以添加自定义的处理逻辑,例如记录日志或触发重新连接。 client.setCallback(new MqttCallback() { @Override public void connectionLost(Throwable cause) { // 处理连接丢失事件 // 添加自定义的处理逻辑,例如记录日志或触发重新连接 } // 其他回调方法... }); 4、 处理重新连接事件:当客户端尝试重新连接时,你可以在reconnectComplete方法中添加自定义的处理逻辑。这个方法会在客户端成功重新连接到MQTT Broker后被调用。 client.setCallback(new MqttCallback() { // 其他回调方法... @Override public void reconnectComplete(boolean reconnect) { // 处理重新连接完成事件 // 添加自定义的处理逻辑 } }); 通过以上配置和逻辑,你可以实现MQTT开源Java SDK的客户端自动连接功能。当连接丢失时,客户端将自动尝试重新连接,并在重新连接完成后触发相应的事件回调方法。你可以根据需要添加自定义的处理逻辑来处理连接丢失和重新连接事件。
        来自:
        帮助文档
        分布式消息服务MQTT
        常见问题
        操作类
        如何配置MQTT开源Java SDK的客户端自动连接?
      • 插件类
        本章节主要介绍插件类问题。 支持的RabbitMQ插件有哪些? RabbitMQ实例购买后,支持的插件如下,其中,方括号中为空的表示还未安装,标记为[E]的插件是明确安装的,标记为[e]的插件是隐式安装的,也就是说,这些插件是作为其它的插件的依赖而进行安装的。 [ ] rabbitmqamqp10 3.8.35 [ ] rabbitmqauthbackendcache 3.8.35 [ ] rabbitmqauthbackendhttp 3.8.35 [ ] rabbitmqauthbackendldap 3.8.35 [ ] rabbitmqauthmechanismssl 3.8.35 [ ] rabbitmqconsistenthashexchange 3.8.35 [ ] rabbitmqdelayedmessageexchange 3.8.9 [ ] rabbitmqeventexchange 3.8.35 [ ] rabbitmqfederation 3.8.35 [ ] rabbitmqfederationmanagement 3.8.35 [ ] rabbitmqjmstopicexchange 3.8.35 [E] rabbitmqmanagement 3.8.35 [e] rabbitmqmanagementagent 3.8.35 [ ] rabbitmqmqtt 3.8.35 [ ] rabbitmqpeerdiscoveryaws 3.8.35 [ ] rabbitmqpeerdiscoverycommon 3.8.35 [ ] rabbitmqamqp10 3.8.35 [ ] rabbitmqauthbackendcache 3.8.35 [ ] rabbitmqauthbackendhttp 3.8.35 [ ] rabbitmqauthbackendldap 3.8.35 [ ] rabbitmqauthmechanismssl 3.8.35 [ ] rabbitmqconsistenthashexchange 3.8.35 [ ] rabbitmqdelayedmessageexchange 3.8.9 [ ] rabbitmqeventexchange 3.8.35 [ ] rabbitmqfederation 3.8.35 [ ] rabbitmqfederationmanagement 3.8.35 [ ] rabbitmqjmstopicexchange 3.8.35 [E] rabbitmqmanagement 3.8.35 [e] rabbitmqmanagementagent 3.8.35 [ ] rabbitmqmqtt 3.8.35 [ ] rabbitmqpeerdiscoveryaws 3.8.35 [ ] rabbitmqpeerdiscoverycommon 3.8.35 RabbitMQ控制台支持安装的插件有:rabbitmqamqp10、rabbitmqdelayedmessageexchange、rabbitmqfederation、rabbitmqsharding、rabbitmqshovel、rabbitmqtracing、rabbitmqmqtt、rabbitmqwebmqtt、rabbitmqstomp、rabbitmqwebstomp和rabbitmqconsistenthashexchange,实例创建后,以上插件默认关闭,如需开启,在控制台实例详情的“插件管理”页面开启,具体操作请参见开启实例插件。 RabbitMQ插件功能可用于测试和迁移业务等场景,不建议用于生产业务。详情请参考约束与限制。 说明 2023年9月30日之前购买的RabbitMQ实例,不支持在控制台开启以下插件:rabbitmqtracing、rabbitmqmqtt、rabbitmqwebmqtt、rabbitmqstomp、rabbitmqwebstomp、rabbitmqconsistenthashexchange,如果需要开启,请在控制台提工单,技术人员在后台开启插件,开启过程中,对业务没有任何影响。 如果需要激活其他未安装且控制台不支持开启的插件(如rabbitmqrandomexchange),需要在控制台提工单,技术人员在后台开启插件,开启过程中,对业务没有任何影响。 未开启SSL的RabbitMQ单机实例,支持开启rabbitmqshovel插件。RabbitMQ集群实例和开启SSL的RabbitMQ单机实例,不支持开启rabbitmqshovel插件。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        插件类
      • 删除认证用户
        参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池id
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        4.0版本接口
        权限管理
        删除认证用户
      • 1
      • ...
      • 282
      • 283
      • 284
      • 285
      • 286
      • ...
      • 290
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      天翼云CTyunOS系统

      公共算力服务

      模型推理服务

      应用托管

      科研助手

      推荐文档

      退订

      登录

      开票月账单金额与消费记录金额不一致怎么办?

      价格

      产品定义

      消费者(Push)

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号