云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微消息队列MQTT版_相关内容
      • 磁盘扩容
        参数 参数类型 说明 示例 下级对象 data Object 订单核心数据。仅接口调用成功时返回 OrderData 表 OrderData
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        生命周期管理
        磁盘扩容
      • 磁盘扩容查价
        参数 参数类型 说明 示例 下级对象 statusCode String 接口系统层面状态码。成功:800,失败:900 message String 描述状态 returnObj Object 返回对象。此参数所包含的参数请见“响应示例'里面的注释 returnObj error String 错误码,只有非成功才有这个字段,方便快速定位问题 表 returnObj
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        生命周期管理
        磁盘扩容查价
      • 退订查价
        参数 是否必填 参数类型 说明 示例 下级对象 prodInstId 是 String 实例ID
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        生命周期管理
        退订查价
      • 查看云审计日志
        本章节介绍了如何通过云审计服务来查看云审计日志。 查看DMS for RocketMQ云审计日志,请参考查看追踪事件。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        云审计服务支持的关键操作
        查看云审计日志
      • Kafka实例的连接地址默认有多少个?
        本节介绍Kafka实例的连接地址数量 Kafka实例的连接地址个数和实例的节点数有关,连接地址个数等于节点数。 各规格节点数信息如下,详细请参考产品规格。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
        Kafka实例的连接地址默认有多少个?
      • kafka实例连接数有限制吗?
        本节介绍kafka实例连接数限制 基准带宽为100MB/s时,Kafka客户端连接数在3000以内。 基准带宽为300MB/s时,Kafka客户端连接数在10000以内。 基准带宽为600MB/s时,Kafka客户端连接数在20000以内。 基准带宽为1200MB/s时,Kafka客户端连接数在20000以内。 实例规格为s7.xlarge.4(通用型4u16g)时,单个代理客户端总连接数上限为1000。 实例规格为s7.2xlarge.4 (通用型8u32g)时,单个代理客户端总连接数上限为2000。 实例规格为s7.4xlarge.4 (通用型16u64g)时,单个代理客户端总连接数上限为4500。 实例规格为c7.xlarge.2(计算增强型4u8g)时,单个代理客户端总连接数上限为4500。 实例规格为c7.2xlarge.2(计算增强型8u16g)时,单个代理客户端总连接数上限为6000。 实例规格为c7.4xlarge.2(计算增强型16u32g)时,单个代理客户端总连接数上限为10000。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
        kafka实例连接数有限制吗?
      • 增加 Consumer 实例
        可以在进程内直接增加(需要保证每个实例对应一个线程,否则没有太大意义),也可以部署多个消费实例进程;需要注意的是,实例个数超过分区数量后就不再能提高速度,将会有消费实例不工作。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        增加 Consumer 实例
      • 消费位点提交
        Kafka 消费者有两个相关参数: enable.auto.commit:默认值为 true。 auto.commit.interval.ms: 默认值为 1000,也即 1s。 这两个参数组合的结果就是,每次 poll 数据前会先检查上次提交位点的时间,如果距离当前时间已经超过参数auto.commit.interval.ms规定的时长,则客户端会启动位点提交动作。 因此,如果将enable.auto.commit设置为 true,则需要在每次 poll 数据时,确保前一次 poll 出来的数据已经消费完毕,否则可能导致位点跳跃。 如果想自己控制位点提交,请把 enable.auto.commit 设为 false,并调用 commit(offsets)函数自行控制位点提交。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消费位点提交
      • 管理应用用户生产消费权限
        批量修改权限 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“用户管理”后进入应用用户管理页面。 (5)点击“导入用户”右侧的下拉倒三角的“批量修改权限”后,出现如下上传文件界面,文件格式件批量下载说明。 (6)点击“上传”完成批量创建。 模板如下。 表:参数说明。 参数 说明 :: type (produce/consume) 权限类型,produce或者consume username 用户名 topicName topic名称
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        管理应用用户生产消费权限
      • 安全接入点接入
        本节介绍如何使用的安全接入点接入Kafka的方法,文档以Java代码为例。 前提条件 已配置正确的安全组。 已获取连接Kafka实例的地址。 如果Kafka实例未开启自动创建Topic功能,在连接实例前,请先创建Topic。 已创建弹性云服务器,如果使用内网同一个VPC访问实例,请设置弹性云服务器的VPC、子网、安全组与Kafka实例的VPC、子网、安全组一致。 需要用户先在用户管理页面创建用户,然后给对应的topic授予生产消费权限。 使用内网同一个VPC访问,实例端口为8092,实例连接地址从控制台实例详情菜单处获取,如下图所示。 Maven中引入Kafka客户端 java Kafka实例基于社区版本2.8.2/3.6.2,推荐客户端保持一致。 org.apache.kafka kafkaclients 2.8.2/3.6.2 客户端关键参数 java Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SASLPLAINTEXT"); props.put("sasl.mechanism", "SCRAMSHA512"); props.put(SaslConfigs.SASLJAASCONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username"testuser" password"Kafka@Test";"); 生产者代码示例 java package com.justin.kafka.service.gw.sasl; import org.apache.kafka.clients.CommonClientConfigs; import org.apache.kafka.clients.producer.Callback; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import org.apache.kafka.common.config.SaslConfigs; import org.apache.kafka.common.serialization.StringSerializer; import java.util.Properties; public class Producer { private final KafkaProducer producer; public final static String TOPIC "testtopic2"; public final static String BROKERADDR "192.168.0.11:8092,192.168.0.9:8092,192.168.0.10:8092"; public Producer() { Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SASLPLAINTEXT"); props.put("sasl.mechanism", "SCRAMSHA512"); props.put(SaslConfigs.SASLJAASCONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username"testuser" password"Kafka@Test";"); props.put(ProducerConfig.ACKSCONFIG, "all"); props.put("retries",3); producer new KafkaProducer<>(props); } public void produce() { try { for (int i 0; i (TOPIC, data), new Callback() { public void onCompletion(RecordMetadata metadata, Exception exception) { if (exception ! null) { // TODO: 异常处理 exception.printStackTrace(); return; } System.out.println("produce msg completed, partition id " + metadata.partition()); } }); } } catch (Exception e) { // TODO: 异常处理 e.printStackTrace(); } producer.flush(); producer.close(); } public static void main(String[] args) { Producer producer new Producer(); producer.produce(); } }
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka
        安全接入点接入
      • 公共接入点接入
        本节介绍如何使用的公共接入点接入Kafka的方法,文档以Java代码为例。 前提条件 已配置正确的安全组。 已获取连接Kafka实例的地址。 如果Kafka实例未开启自动创建Topic功能,在连接实例前,请先创建Topic。 已创建弹性云服务器,如果使用内网同一个VPC访问实例,请设置弹性云服务器的VPC、子网、安全组与Kafka实例的VPC、子网、安全组一致。 使用内网同一个VPC访问,实例端口为8090,实例连接地址从控制台实例详情菜单处获取,如下图所示。 Maven中引入Kafka客户端 java Kafka实例基于社区版本2.8.2/3.6.2,推荐客户端保持一致。 org.apache.kafka kafkaclients 2.8.2/3.6.2 客户端关键参数 java Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); 生产者代码示例 java package com.justin.kafka.service.gw.plain; import org.apache.kafka.clients.producer.Callback; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import org.apache.kafka.common.serialization.StringSerializer; import java.util.Properties; public class Producer { private final KafkaProducer producer; public final static String TOPIC "testtopic"; public final static String BROKERADDR "192.168.0.11:8090,192.168.0.9:8090,192.168.0.10:8090"; public Producer() { Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.ACKSCONFIG, "all"); props.put("retries",3); producer new KafkaProducer<>(props); } public void produce() { try { for (int i 0; i (TOPIC, data), new Callback() { public void onCompletion(RecordMetadata metadata, Exception exception) { if (exception ! null) { // TODO: 异常处理 exception.printStackTrace(); return; } System.out.println("produce msg completed, partition id " + metadata.partition()); } }); } } catch (Exception e) { // TODO: 异常处理 e.printStackTrace(); } producer.flush(); producer.close(); } public static void main(String[] args) { Producer producer new Producer(); producer.produce(); } }
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka
        公共接入点接入
      • 创建用户并授权使用Kafka
        为IAM用户授权 步骤 1 管理员使用已注册的天翼云帐号登录天翼云网门户。 步骤 2 鼠标移动至天翼云首页右上角用户头像,在下拉列表中单击“个人中心”。 步骤 3 个人中心左侧菜单中,单击“主子账号及授权管理”。 步骤 4 在主子账号及授权管理页,单击左侧导航菜单中的“用户组”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        权限管理
        创建用户并授权使用Kafka
      • 查看系统基本信息
        本页介绍天翼云TeleDB数据库如何查看系统基本信息。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,单击系统信息 > 基本信息 ,进入基本信息页面。 2. 选择基本信息 页签,你可查看系统名称、系统版本号、系统管理员和系统部署日期。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        管理平台使用手册
        系统消息
        查看系统基本信息
      • 查看组件信息
        本页介绍天翼云TeleDB数据库如何查看组件信息。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,单击系统参数 > 组件信息 ,进入组件信息页面。 2. 在选择下拉框选择组件类型 ,单击查询 。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        管理平台使用手册
        系统消息
        查看组件信息
      • 查看系统基本信息
        本页介绍天翼云TeleDB数据库如何查看系统基本信息。 1. 以用户名和密码登录分布式数据库TeleDB控制台,单击系统信息 > 基本信息,进入基本信息页面。 2. 选择基本信息页签,你可查看系统名称、系统版本号、系统管理员和系统部署日期。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        管理平台使用手册
        系统消息
        查看系统基本信息
      • 计费项
        专属云Kafka包括2个计费项:专属计费资源、专属存储(可选)。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        计费说明
        计费项
      • DMS RabbitMQ帐号密码规范
        本章节主要介绍账号密码规范问题。 DMS RabbitMQ帐号密码规范 DMS帐号密码必须满足以下复杂度要求: 密码不能为空。 输入长度为8到32位的字符串。 必须包含如下四种字符中的三种组合: 小写字母 大写字母 数字 特殊字符包括(~!@$%^&()+[{}]:'", /?) 不能以开头。 密码不能和帐号及帐号的倒序相同。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        DMS RabbitMQ帐号密码规范
      • DMS for Kafka请求条件
        本文主要介绍DMS for Kafka请求条件。 您可以在创建自定义策略时,通过添加“请求条件”(Condition元素)来控制策略何时生效。请求条件包括条件键和运算符,条件键表示策略语句的 Condition元素,分为全局级条件键和服务级条件键。全局级条件键(前缀为g:)适用于所有操作,服务级条件键(前缀为服务缩写,如dms:)仅适用于对应服务的操作。运算符与条件键一起使用,构成完整的条件判断语句。 DMS for Kafka通过IAM预置了一组条件键,例如,您可以先使用dms:ssl条件键检查Kafka实例是否开启SASL,然后再允许执行操作。下表显示了适用于DMS for Kafka服务特定的条件键。 表DMS for Kafka请求条件 DMS for Kafka条件键 运算符 描述 dms:publicIP BoolIsNullOrEmptyBoolIfExists 是否开启公网 dms:ssl BoolIsNullOrEmptyBoolIfExists 是否开启SASL
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        权限管理
        DMS for Kafka请求条件
      • 查看云审计日志
        本文主要介绍查看云审计日志。 查看DMS for Kafka云审计日志,请参考《云审计服务用户指南》的“查看追踪事件”章节。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        云审计服务支持的关键操作
        查看云审计日志
      • 准备实例依赖资源
        准备资源 要求 创建指导 VPC和子网 不同的Kafka实例可以重复使用相同的VPC和子网,也可以使用不同的VPC和子网,请根据实际需要进行配置。 在创建VPC和子网时应注意如下要求: 创建的VPC与Kafka实例在相同的区域。 子网开启IPv6后,Kafka实例支持IPv6功能。Kafka实例开启IPv6后,客户端可以使用IPv6地址连接实例。 创建VPC和子网的操作指导请参考《虚拟私有云 用户指南》的 安全组 不同的Kafka实例可以重复使用相同的安全组,也可以使用不同的安全组,请根据实际需要进行配置。 在创建安全组时应注意如下要求: 创建安全组时,“模板”选择“自定义”。 使用Kafka实例前,添加下表中的安全组规则,其他规则请根据实际需要添加。 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问Kafka实例,无需添加下表中的规则。 创建安全组的操作指导请参考《虚拟私有云 用户指南》的 弹性IP地址 在创建弹性IP地址时,应注意如下要求: 创建的弹性IP地址与Kafka实例在相同的区域。 弹性IP地址的数量必须与Kafka实例的代理个数相同。 Kafka控制台无法识别开启IPv6转换功能的弹性IP地址。 创建弹性IP地址的操作指导请参考《弹性IP 用户指南》的“
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        准备实例依赖资源
      • DMS for Kafka资源
        本文主要介绍DMS for Kafka资源。 资源是服务中存在的对象。在DMS for Kafka中,资源包括:kafka,您可以在创建自定义策略时,通过指定资源路径来选择特定资源。 表 DMS for Kafka的指定资源与对应路径 指定资源 资源名称 资源路径 kafka 实例 【格式】DMS:::kafka:Instance ID 说明 对于实例资源,IAM自动生成资源路径前缀DMS:::kafka: 通过实例ID指定具体的资源路径,支持通配符。例如: DMS:::kafka:表示任意Kafka实例。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        权限管理
        DMS for Kafka资源
      • 步骤一:准备环境
        方向 协议 端口 源地址 说明 入方向 TCP 9094 0.0.0.0/0 通过公网访问Kafka实例(关闭SSL加密)。 入方向 TCP 9092 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(关闭SSL加密)。 入方向 TCP 9095 0.0.0.0/0 通过公网访问Kafka实例(开启SSL加密)。 入方向 TCP 9093 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(开启SSL加密)。 入方向 TCP 9999 0.0.0.0/0 访问Kafka Manager。 入方向 TCP 9011 0.0.0.0/0 使用DNAT访问Kafka实例(开启SSL加密和关闭SSL加密都适用)。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤一:准备环境
      • 连接类
        RabbitMQ专享实例是否支持公网访问? RabbitMQ专享实例支持公网访问。 在创建RabbitMQ实例时开启“公网访问”,或创建完后,在实例详情页中将公网访问开关打开。 RabbitMQ实例 是否支持跨Region部署 ? 当前支持跨AZ(可用区),不支持跨Region部署。 RabbitMQ实例 是否支持跨VPC访问 ? RabbitMQ实例支持跨VPC和子网访问,可以通过创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问实例。 RabbitMQ专享实例是否支持不同的子网 ? 支持。 客户端与实例在相同VPC内,可以跨子网段访问。同一个VPC内的子网默认可以进行通信。 客户端与实例在不同VPC时,可通过创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问实例。 此外,可以为实例绑定公网地址,客户端访问实例公网地址即可。 SSL方式连接RabbitMQ实例失败? 首先排查安全组的入方向规则,是否放开了端口5671(SSL方式访问)或5672(非SSL访问)。 其次,参考如下内容配置SSL单向认证: ConnectionFactory factory new ConnectionFactory(); factory.setHost(host); factory.setPort(port); factory.setUsername(user); factory.setPassword(password); factory.useSslProtocol(); Connection connection factory.newConnection(); Channel channel connection.createChannel(); 客户端是否可以通过DNAT方式访问RabbitMQ实例? 不可以。客户端可以使用代理、VPN、专线、FullNAT或者反向代理等方式访问RabbitMQ实例。 RabbitMQ实例的Web管理页面无法打开? 可能原因:实例安全组配置不正确。 解决方案:重新配置安全组,具体步骤如下。 1. 在实例详情页面的“基本信息 > 网络”,单击安全组名称,跳转到安全组页面。 2. 选择“入方向规则”,查看安全组入方向规则。 实例未开启SSL开关 如果是VPC内访问,实例安全组入方向规则,需要允许端口5672的访问。 如果是公网访问,需要允许端口15672的访问。 实例已开启SSL开关 如果是VPC内访问,实例安全组入方向规则,需要允许端口5671的访问。 如果是公网访问,需要运行端口15671的访问。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        连接类
      • 调整资源配额
        本章节主要介绍如何调整资源配额。 什么是配额? 为防止资源滥用,平台限定了各服务资源的配额,对用户的资源数量和容量做了限制。如您最多可以创建多少个RabbitMQ实例。 如果当前资源配额限制无法满足使用需要,您可以申请扩大配额。 怎样查看我的配额? 1. 登录管理控制台。 2. 单击管理控制台右上角的,选择区域和项目。 3. 单击页面右上角的“My Quota”图标。系统进入“服务配额”页面。 4. 您可以在“服务配额”页面,查看各项资源的总配额及使用情况。 如果当前配额不能满足业务要求,请参考后续操作,申请扩大配额。 如何申请扩大配额? 1. 登录管理控制台。 2. 单击页面右上角的“My Quota”图标。系统进入“服务配额”页面。 3. 单击“申请扩大配额”。 4. 在“新建工单”页面,根据您的需求,填写相关参数。其中,“问题描述”项请填写需要调整的内容和申请原因。 5. 填写完毕后,勾选协议并单击“提交”。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        调整资源配额
      • Kafka消息格式
        参数名称 说明 mysqlType 源端表字段名称和类型。 id DRS内部定义的事件操作的序列号,单调递增。 es 源库产生这一条记录的时间,13位Unix时间戳,单位为毫秒。 ts 写入到目标kafka的时间,13位Unix时间戳,单位为毫秒。 database 数据库名称。 table 表名。 type 操作类型,比如DELETE,UPDATE,INSERT,DDL。 isDdl 是否是DDL操作。 sql DDL的SQL语句,在DML操作中,取值为""。 sqlType 源端表字段的jdbc类型。 data 最新的数据,为JSON数组,如果type参数是插入则表示最新插入的数据,如果是更新,则表示更新后的最新数据。 old 旧数据,如果type参数是更新,则表示更新前的数据;如果是删除,则表示被删除的数据;如果是插入,取值为null。 pkNames 主键名称。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        同步场景操作参考
        Kafka消息格式
      • 接入方式
        本节介绍了RabbitMQ 接入方式。 安全接入点 RabbitMQ 安全接入点支持 "PLAIN"、"AMQPLAIN" 授权机制。 1、访问控制 RabbitMQ "PLAIN"、"AMQPLAIN"授权机制需要创建用户,从而获得对应虚拟主机的访问权限。 2、接入步骤 (1)新建用户(集群管理>用户>新建用户) (2)运行demo 客户端关键参数设置 "PLAIN"、"AMQPLAIN" 授权机制的客户端关键参数配置 String host "192.168.0.0"; //安全接入点ip Integer port 5672; //安全接入点port String username "xxx"; //集群管理用户列表的用户名 String password "xxx"; String vhost "/"; ConnectionFactory connectionFactory new ConnectionFactory(); connectionFactory.setHost(host); connectionFactory.setPort(port); connectionFactory.setUsername(username); connectionFactory.setPassword(password); connectionFactory.setVirtualHost(vhost); SSL接入点 RabbitMQ 安全接入点支持 "EXTERNAL" 授权机制 1、访问控制 无 2、接入步骤 (1)下载SSL证书(实例概览>导出服务>下载SSL文件) (2)运行demo 客户端关键参数设置 "EXTERNAL" 授权机制的客户端关键参数配置 java String host "192.168.0.0"; //SSL接入点ip int port 5671; //SSL接入点port //以下2个ssl文件可通过控制台获取安装包, 具体的获取方式可以查看2.2.1接入步骤的第二小节 String ksFile "D:tmpsslclientrabbitmqkey.p12"; String tksFile "D:tmpssltruststore"; String vhost "/"; char[] keyPassphrase "W3zT98Zz9Io".toCharArray(); KeyStore ks KeyStore.getInstance("PKCS12"); ks.load(new FileInputStream(ksFile), keyPassphrase); KeyManagerFactory kmf KeyManagerFactory.getInstance("SunX509"); kmf.init(ks, keyPassphrase); char[] trustPassphrase null; trustPassphrase "W3zT98Zz9Io".toCharArray(); KeyStore tks KeyStore.getInstance("JKS"); tks.load(new FileInputStream(tksFile), trustPassphrase); TrustManagerFactory tmf TrustManagerFactory.getInstance("SunX509"); tmf.init(tks); SSLContext c SSLContext.getInstance("tlsv1.2"); c.init(kmf.getKeyManagers(), tmf.getTrustManagers(), null); ConnectionFactory connectionFactory new ConnectionFactory(); connectionFactory.setHost(host); connectionFactory.setPort(port); connectionFactory.setVirtualHost(vhost); connectionFactory.setSaslConfig(DefaultSaslConfig.EXTERNAL); connectionFactory.useSslProtocol(c);
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ接入
        接入方式
      • 连接类
        本章节主要介绍连接类问题 RocketMQ是否支持自建Broker连接云上nameserver? 不支持。自建Broker连接到云上RocketMQ的nameserver,会影响管理面功能,导致查询不到Topic等问题。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        常见问题
        连接类
      • 用户管理使用问题
        本文记录了用户管理功能使用过程中的常见问题 创建用户时,"密码是否Hash"选项怎么选择? 正常情况下不需要开启该选项,不开启该选项时,使用SASL连接时,直接使用设置的密码即可。如果开启了该选项,使用SASL连接时,需要取设置的密码的小写32位MD5哈希值。 原先创建的用户,没有涉及到"密码是否Hash"参数,该怎么使用? 在2025年8月24日之前创建的用户,默认都是开启了"密码是否Hash"选项,即使用SASL连接时,需要取设置的密码的小写32位MD5哈希值。具体用户是否开启了"密码是否Hash"选项,可以通过查看控制台用户管理的用户列表页面得知。 创建用户时,为什么没有"密码是否Hash"选项? 新租户不支持选择该选项,使用SASL连接时,直接使用设置的密码即可。如果需要使用该功能,可以提单联系我们。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        用户管理使用问题
      • 如何配置安全组
        本文介绍Kafka如何配置安全组 客户端只能部署在与Kafka实例处于相同虚拟私有云(VPC)和相同子网的弹性云主机(CTECS)上。 除了CTECS、Kafka实例必须处于相同VPC之外,还需要他们的安全组分别配置了正确的规则,客户端才能访问Kafka实例。 如果CTECS、Kafka实例配置相同的安全组,安全组创建后,默认包含组内网络访问不受限制的规则。 如果CTECS、Kafka实例配置了不同安全组,可参考如下配置方式: 说明 假设CTECS、Kafka实例分别配置了安全组:sgsCTECS、sgsKafka。 以Kafka访问端口9098为例,其它实例请以实际情况为准。 以下规则,远端可使用安全组,也可以使用具体的IP地址。 配置CTECS所在安全组。CTECS所在安全组需要增加如下出方向规则,以保证客户端能正常访问Kafka实例。如果出方向规则不受限,则不用添加。 配置Kafka实例所在安全组。Kafka实例所在安全组需要增加如下入方向规则,以保证能被客户端访问。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
        如何配置安全组
      • 提高消费速度
        提高消费速度有以下两个办法: 增加 Consumer 实例个数。 增加消费线程。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        提高消费速度
      • 重平衡日志
        前提条件 2024年11月23号之后开通的实例才支持该功能。 重平衡日志功能依赖于云日志服务,在开启重平衡日志功能前需要先开启云日志服务。 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在实例列表页的操作列,目标实例行点击“管理”。 4. 点击“可观测”后,选择“重平衡日志”进入重平衡日志功能界面。 5. 首次进入该功能界面,需要手动开启。 6. 如需要关闭重平衡日志服务,可点击右上角“关闭重平衡日志”按钮。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        智能运维
        重平衡日志
      • 重启实例
        前提条件 只有当实例状态为“运行中”时才可以进行重启操作。 注意:重启过程中,实例将会有短暂时间停止服务。 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在实例列表页的操作列,目标实例行点击“更多”按钮。 4. 在下拉框内点击“重启”按钮。 5. 点击弹框内的“确认”按钮完成操作,实例状态变为“重启中”。 6. 等待一段时间后,重启成功实例恢复运行状态,否则状态为“重启失败”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重启实例
      • 1
      • ...
      • 185
      • 186
      • 187
      • 188
      • 189
      • ...
      • 255
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      模型推理服务

      一站式智算服务平台

      智算一体机

      人脸实名认证

      推荐文档

      升级

      术语解释

      云主机购买流程

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号