云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列Kafka版_相关内容
      • 使用咨询
        本章节主要介绍Flink作业相关问题中有关使用咨询的问题。 DLI Flink作业支持哪些数据格式和数据源 DLI Flink作业支持如下数据格式: Avro,Avromerge,BLOB,CSV,EMAIL,JSON,ORC,Parquet,XML。 DLI Flink作业支持如下数据源: CloudTable HBase,CloudTable OpenTSDB,CSS Elasticsearch,DCS,DDS,DIS,DMS,DWS,EdgeHub,MRS HBase,MRS Kafka,开源Kafka,文件系统,OBS,RDS,SMN。 如何给子用户授权查看Flink作业? 子用户使用DLI时,可以查看队列,但是不能查看Flink作业,可以通过在DLI中对子用户授权,或在IAM中对子用户授权: DLI授权管理 1.使用租户账号,或者作业owner账号,或有DLI Service Administrator权限的账号,登录DLI控制台。 2.在“作业管理”>“Flink作业”页面找到对应的作业。 3.在对应作业的“操作”栏中选择“更多”>“权限管理”。 4.在“授权”页面输入需要授权的用户名,勾选需要的权限。确认后,被授权用户就可以查看该作业,并且执行对应操作。 IAM授权管理 1.登录统一身份认证IAM控制台,在“权限”页面,单击“创建自定义权限”。 2.为查看DLI Flink作业创建权限策略: 策略名称:可以使用默认名称,也可以自定义。 作用范围:选择“项目级服务”。 策略配置方式:选择“可视化视图”。 策略内容:依次选择“允许”,“数据湖探索”,“dli:jobs:listall”。 单击“确认”,创建策略。 3.在“用户组”页面,找到需要授权的用户所属的用户组,单击用户组名称,进入用户组“权限管理”页面,单击“配置权限”。 4.为对应的用户组授权: 在以下作用范围:选择“区域级项目”。 拥有以下权限:勾选b中创建的权限策略。 或者勾选系统角色“DLI Service Admin”(权限较大,拥有DLI所有权限)也可以实现Flink作业的查看。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Flink作业相关问题
        使用咨询
      • 旧资费
        说明 分布式消息服务RocketMQ旧资费根据实例规格分为基础版、中级版和高级版,按照不同版本收费。 目前在 上海7、南京3、乌鲁木齐27、北京5、晋中、内蒙6 资源池开放订购。 实例资费 实例类型 标准资费(元/月) 按需标准资费(元/小时) 实例说明 基础版 1546 3.23 TPS:5000条/秒, Topic数上限:50,存储空间:200GB 中级版 2276 4.75 TPS:10000条/秒, Topic数上限:200,存储空间:500GB 高级版 3792 7.90 TPS:20000条/秒, Topic数上限:500,存储空间:1000GB
        来自:
        帮助文档
        分布式消息服务RocketMQ
        计费说明
        产品资费
        旧资费
      • 云审计服务支持的MQTT操作列表
        关键操作列表 操作事件 读写类型 剔除客户端 写事件 退订客户端主题 写事件 启动mqtt服务 写事件 查询实例服务器列表 写事件 添加第三方认证授权插件 写事件 修改第三方认证授权插件 写事件 删除第三方认证授权插件 写事件 启用第三方认证授权插件 写事件 卸载第三方认证授权插件 写事件 新增认证用户 写事件 修改密码 写事件 删除认证用户 写事件 新增用户ACL 写事件 删除用户ACL 写事件 删除认证用户 写事件 服务端发送消息至MQTT队列 写事件
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的MQTT操作列表
      • 监控项说明
        本页介绍了文档数据库服务监控信息说明。 监控指标 说明 默认监控周期 默认监控频率 CPU 实例的CPU使用率,包括: sys(CPU运行于核心态时的使用率) 、usr(CPU运行于用户态时的使用率)。 1小时 1分钟 内存 实例的内存利用率,包括: 机器内存利用率 、数据库具体的内存使用情况。 1小时 1分钟 磁盘 实例相关的磁盘性能指标,包括:磁盘利用率、Iops:每秒读写操作数、每秒读写流量(kb) 、磁盘平均队列长度。 1小时 1分钟 连接 实例连接相关的指标,包括:连接数、连接数使用率。 1小时 1分钟 TPSQPS 数据库的读写相关性能指标,包括: 指令command操作数 、查询query操作数 、插入insert操作数 、删除delete操作数 、更新update操作数 、getmore操作数。 1小时 1分钟 请求 数据库的请求相关指标,包括:活跃写请求(Active Write)、活跃读请求(Active Read)、排队写请求(Queue Write)、排队读请求(Queue Read)。 1小时 1分钟 网络 实例的网络请求数量、流量。 1小时 1分钟 全局锁 实例当前等待全局锁的队列长度,包括:全局读锁的等待队列长度、全局写锁的等待队列长度、所有全局锁的等待队列长度。 1小时 1分钟 游标 实例当前使用的cursor数,包括:当前cursor打开数量、cursor超时数量。 1小时 1分钟 缺页错误数 进程每秒页面错误率。 1小时 1分钟 断言 包括:每秒平均增加的常规断言率 、每秒平均警告率 、每秒平均消息率 、每秒平均用户断言率。 1小时 1分钟 wiredtiger 存储引擎相关指标,包括: wiredtiger内存数据量 、wiredtiger内存脏数据量 、wiredtiger磁盘读入内存量 、wiredtiger内存写入磁盘量、Cache使用百分比、Cache脏数据百分比。 1小时 1分钟 oplog(副本集独有) 包括:主节点oplog可用时间 、主节点oplog生成速率 、主备oplog重叠时长 、主备延时。 1小时 1分钟
        来自:
        帮助文档
        文档数据库服务
        用户指南
        监控管理
        监控项说明
      • 连接实例
        本文为您介绍分布式消息服务MQTT的快速入门连接实例。 创建用户名和密码 终端设备连接MQTT队列需要先创建用户密码。 1、 天翼云官网点击控制中心,选择产品分布式消息服务MQTT。 2、 登录分布式消息服务MQTT控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入认证授权菜单,点击【新增】按钮,在弹出框输入认证用户名、用户密码、确认密码等信息。 主题授权 对用户名进行主题授权,客户端方可正常收发。 1、 选择需要授权的用户,点击【授权】按钮。 2、 在弹出框填写已创建的主题名称,主题权限包含3种:pub、sub、pubsub,支持通配符, 代表所有主题。 绑定公网IP 公网接入若未绑定弹性公网ip需先进行购买弹性ip并进行绑定。 弹性IP是可以独立申请的公网 IP 地址,包括公网IP地址与公网出口带宽服务。可以与分布式消息服务MQTT动态绑定和解绑,实现云资源的互联网访问。针对需要公网访问分布式消息服务MQTT实例的需求,用户可开通弹性IP后,在MQTT实例页面进行绑定。 1、 进入实例列表,点击【管理】按钮进入管理菜单。 2、 在实例详情查看公网IP,点击【绑定】按钮,选择已购买的弹性IP。 弹性ip带宽大小计算规则可参照:带宽 报文大小TPS 120%,建议按120%购买,应对突发流程。如规格,报文大小1KB,TPS 2W/s,则带宽2000010008160Mb/s,建议200Mb/s。
        来自:
        帮助文档
        分布式消息服务MQTT
        快速入门
        连接实例
      • RabbitMQ元数据迁移
        本节介绍了RabbitMQ元数据迁移的实践。 RabbitMQ元数据迁移指将用户线下实例的rabbitmq实例元数据迁移到线上实例。 背景信息 RabbitMQ集群元数据是指RabbitMQ集群的信息,包括User、Vhost、Queue、Exchange、Binding Key、Permission、Parameter等信息。RabbitMQ集群元数据存储于RabbitMQ集群的内部数据库,在集群的各个节点之间自动复制。集群中的每个节点都有自己的元数据副本。当某个节点的元数据变更时,所有节点的元数据都会同步更新。因此,集群的各个节点的元数据被导出时都是相同的。RabbitMQ集群元数据可以被导出成一份JSON文件,然后被导入另一个RabbitMQ集群,实现RabbitMQ集群元数据备份。 迁移元数据上云是指将开源RabbitMQ集群的元数据迁移到天翼云分布式消息服务RabbitMQ实例。分布式消息服务RabbitMQ是天翼云提供的全托管消息队列服务,兼容开源RabbitMQ。您可以将RabbitMQ集群元数据导出,然后导入分布式消息服务RabbitMQ实例,分布式消息服务RabbitMQ会根据成功导入的元数据在目标分布式消息服务RabbitMQ实例中创建对应的Vhost、Queue、Exchange、Binding,实现RabbitMQ集群元数据迁移上云。您可以将全部Vhost信息导入分布式消息服务RabbitMQ实例,也可以根据需要将某个Vhost信息导入分布式消息服务RabbitMQ实例中的Vhost。 迁移元数据 (1)在RabbitMQ WebUI页面查看,如图所示。 Overview视图中,点击“Download broker definitions”按钮下载集群元数据。得到rabbitmq元数据的json文件。 (2)上线rabbitmq实例导入元数据。 如上图所示,先点击选择文件,选择上一步骤导出的json文件,再点击导入配置。 注意:在线下的Rabbitmq集群中不能含有用户名rabbitmq,否则会被覆盖。用户名rabbitmq是天翼云Rabbitmq内部使用的管理账号。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ元数据迁移
      • 按需转包周期
        本章节主要介绍分布式消息服务RabbitMQ按需转包周期。 按需付费的用户可以选择“转包周期”,变更实例计费模式为包年/包月。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,实现按需实例转包周期。 勾选RabbitMQ实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“转包周期”。 在待转包周期的RabbitMQ实例所在行,单击“更多 > 转包周期”。 单击RabbitMQ实例名称,进入实例详情页面。单击右上角的“更多 > 转包周期”。 步骤 5 单击“确定”,页面跳转到“按需转包周期”页面。 步骤 6 选择续费时长,然后单击“去支付”,根据界面提示信息,支付费用,完成实例转包周期操作。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        按需转包周期
      • 修改实例信息
        本章节主要如何介绍修改分布式消息服务RabbitMQ的实例信息。 创建RabbitMQ实例成功后,您可以根据自己的业务情况对RabbitMQ实例的部分参数进行调整。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击RabbitMQ实例的名称,进入实例详情页面。 步骤 5 以下参数支持修改。 实例名称 描述 企业项目 安全组 公网访问(公网访问的修改方法,请参考设置实例的公网访问。) 参数修改完成后,通过以下方式查看修改结果。 修改“公网访问”,系统跳转到“后台任务管理”页签,并显示当前任务的操作进度和结果。 修改“实例名称”、“描述”、“企业项目”和“安全组”后,右上角直接提示修改结果。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        修改实例信息
      • API使用说明
        天翼云OpenAPI门户提供了产品的API 文档、API调试、SDK中心等。 关于用户如何使用分布式消息服务Kafka产品API的详细介绍,请参见使用API(默认Ⅱ类资源池接口)。您可以在OpenAPI门户可以了解到具体的调用前必知、API概览、如何调用API以及具体的API的接口详细说明。 说明 Ⅱ类资源池版本:适用于 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3、芜湖4、乌鲁木齐7 资源池,详情请参照 Ⅰ类资源池版本:适用于 芜湖2、上海7、贵州3、昆明2、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、北京5 资源池,详情请参照
        来自:
        帮助文档
        分布式消息服务Kafka
        API参考
        API使用说明
      • ALM-14022 NameNode RPC队列平均时间超过阈值
        可能原因 NameNode节点的CPU性能不足,导致NameNode无法及时处理消息。 NameNode所设置的内存太小,频繁Full GC造成JVM卡顿。 NameNode配置参数不合理,导致NameNode无法充分利用机器性能。 HDFS的业务访问量太大,超过了NameNode的负载能力。 处理步骤 获取该告警的信息 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在告警列表中找到该告警。 2.单击该告警,查看下面的告警详情。从“产生时间”可知该告警的触发时间;从“定位信息”中的“主机名”信息可知发出该告警的NameNode节点主机名;从“定位信息”中的NameServiceName信息可知发出该告警的NameService名称。 查看是否阈值设置过低 3.查看依赖于HDFS的业务的运行状态是否正常运行。查看是否存在运行慢、执行任务超时的情况。 是,执行步骤8。 否,执行步骤4。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HDFS”,单击图表区域右上角的下拉菜单,单击“定制”,在弹出的对话框中选择“主NameNode RPC队列平均时间”,单击“确定”。 5.查看“主NameNode RPC队列平均时间”监控中,获取发出告警的NameService的当前的监控值。 6.在FusionInsight Manager首页,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > HDFS”,找到“主NameNode RPC队列平均时间”,单击default规则中“操作”栏中的“修改”,修改“阈值”为当前监控值的150%。单击“确定”,保存新阈值。 7.等待1分钟,查看该告警是否自动消除。 是,处理结束。 否,执行步骤8。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14022 NameNode RPC队列平均时间超过阈值
      • 收发定时/延时消息
        分布式消息服务RocketMQ版支持任意时间的定时消息,最大推迟时间可达到40天。 定时消息即生产者生产消息到分布式消息服务RocketMQ版后,消息不会立即被消费,而是延迟到设定的时间点后才会发送给消费者进行消费。 收发消息前,请参考收集连接信息收集RocketMQ所需的连接信息。 准备环境 1. 在命令行输入python,检查是否已安装Python。得到如下回显,说明Python已安装。 PS C:> python Python 3.9.9 (tags/v3.9.9:ccb0e6a, Nov 15 2021, 18:08:50) [MSC v.1929 64 bit (AMD64)] on win32 Type "help", "copyright", "credits" or "license" for more information. 如果未安装Python,请使用以下命令安装: pip install rocketmqclientpython 2. 安装librocketmq库和rocketmqclientpython。 说明 建议下载rocketmqclientcpp2.2.0,获取librocketmq库。 3. 将librocketmq.so添加到系统动态库搜索路径。 1. 查找librocketmq.so的路径。 find / name librocketmq.so 2. 将librocketmq.so添加到系统动态库搜索路径。 ln s /查找到的librocketmq.so路径/librocketmq.so /usr/lib sudo ldconfig 以下示例代码中的参数说明如下,请参考收集连接信息获取参数值。 GROUP:表示消费组名称。 ENDPOINT:表示实例连接地址和端口。 TOPIC:表示Topic名称。 发送消息 参考如下示例代码。 import datetime from rocketmq.client import Producer, Message from rocketmq.exceptions import RocketMQException endpoint "${ENDPOINT}" 填写分布式消息服务RocketMQ控制台Namesrv接入点 accesskey "${ACCESSKEY}" 填写AccessKey 在分布式消息服务RocketMQ控制台用户管理菜单中创建的用户ID accesssecret "${SECRETKEY}" 填写SecretKey 在分布式消息服务RocketMQ控制台用户管理菜单中创建的用户密钥 topic "${TOPIC}" 填写Topic,在管理控制台创建 producergroup "${GROUP}" 生产者组group 初始化生产者 producer Producer(producergroup) producer.setnamesrvaddr(endpoint) producer.setsessioncredentials(accesskey, accesssecret, "") 启动生产者 try: producer.start() except RocketMQException as e: print('start producer error:', e) exit(1) msg Message(topic) msg.setbody("Hello RocketMQ") delaytime 10 发送任意延迟消息,时间单位为毫秒,如下所示:消息将在10s后投递 delaytimestamp int((datetime.datetime.now() + datetime.timedelta(secondsdelaytime)).timestamp() 1000) msg.setproperty('STARTDELIVERTIME', str(delaytimestamp)) 发送消息 try: result producer.sendsync(msg) print('send result:', result) except RocketMQException as e: print('send message error:', e) producer.shutdown() exit(1) 关闭生产者实例,释放资源 producer.shutdown()
        来自:
        帮助文档
        分布式消息服务RocketMQ
        开发指南
        Python
        收发定时/延时消息
      • 删除实例
        删除创建失败的RabbitMQ实例 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,删除创建失败的RabbitMQ实例。 勾选RabbitMQ实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“删除”。 在创建失败的删除RabbitMQ实例所在行,单击“删除”。 步骤5 在“删除实例”对话框中,输入“DELETE”,单击“确定”,完成删除RabbitMQ实例。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        删除实例
      • 分布式消息服务RocketMQ事件源
        参数 说明 示例 实例名称 前提条件中已创建的分布式消息服务RocketMQ版实例。 xxx Topic 当前实例中的Topic。 topic1 Group 消费组名。 快速创建 :自动创建以GIDEVENTBRIDGExxx命名的Group ID。 使用已有 :选择当前实例中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 消费位点 开始消费的位置。 最新位点 :从最新位点开始消费。 最新位点 Tag 用于过滤消息的Tag值,非必填。 tag1
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件源
        分布式消息服务RocketMQ事件源
      • 步骤一:准备环境
        java8 步骤 4 下载开源的Kafka客户端。 对应1.1.0版本实例的下载地址: wget 对应2.3.0版本实例的下载地址: wget 对应2.7版本实例的下载地址: wget 步骤 5 解压Kafka客户端文件。 tar zxf ${kafkatar} “ kafkatar ” 表示客户端的压缩包名称。例如: tar zxf kafka2.122.7.2.tgz 后续步骤 步骤二:创建Kafka实例
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤一:准备环境
      • 使用限制
        分类 组件 版本 微服务 org.springframework.cloud:springclouddependencies 2021.0.8 微服务 org.springframework.boot:springbootstarterweb 2.7.12 微服务 org.springframework.cloud:springcloudstarteropenfeign 3.1.8 微服务 org.apache.dubbo:dubbo 2.7.13 负载均衡 org.springframework.cloud:springcloudloadbalancer 3.1.7 微服务注册中心 com.alibaba.cloud:springcloudstarteralibabanacosdiscovery 2021.1 消息队列 org.apache.rocketmq:rocketmqclient 4.8.0 数据库 mysql:mysqlconnectorjava 5.1.40及以上版本 8.0.15及以上版本 数据库 org.postgresql:postgresql 42.5.0及以上版本
        来自:
        帮助文档
        应用高可用
        产品简介
        应用容灾多活
        使用限制
      • 创建Vhost
        本章节主要介绍如何创建Vhost。 操作场景 每个Vhost(Virtual Hosts)相当于一个相对独立的RabbitMQ服务器。Vhost用作逻辑隔离,分别管理Exchange、Queue和Binding,使得应用安全地运行在不同的Vhost上,相互之间不会干扰。一个实例下可以有多个Vhost,一个Vhost里可以有若干个Exchange和Queue。生产者和消费者连接RabbitMQ实例时,需要指定一个Vhost。Vhost的相关介绍,请参考官网文档Virtual Hosts。 本章节主要介绍创建Vhost的操作,有以下几种方式,您可以根据实际情况选择任意一种方式: 方式一:在控制台创建 方式二:使用RabbitMQ WebUI创建 方式三:调用API创建 方式一:在控制台创建 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击实例名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“Vhost列表”,进入Vhost列表页面。 步骤 6 单击“创建Vhost”,弹出“创建Vhost”对话框。 步骤 7 设置Vhost的名称,单击“确定”。 创建成功后,在Vhost列表页面显示创建成功的Vhost。 图1 Vhost列表(控制台) “tracing”表示是否开启消息追踪功能。开启消息追踪后,您可以跟踪消息的转发路径。 说明 Vhost创建成功后,无法修改名称。 实例创建后,会自动创建一个名为“/”的Vhost。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        Vhost管理
        创建Vhost
      • 配置委托
        节点名称 系统权限 权限描述 CDM Job DAYU Administrator 数据治理中心服务的所有执行权限。 Import GES GES Administrator 图引擎服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 MRS Presto SQL、MRS Spark、MRS Spark Python、MRS Flink Job、 MRS MapReduce MRS Spark SQL、MRS Hive SQL(通过MRS API方式连接MRS集群的) MRS Administrator KMS Administrator MRS Administrator:MapReduce服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 KMS Administrator:数据加密服务加密密钥的管理员权限。 MRS Spark SQL、MRS Hive SQL、MRS Kafka、Kafka Client(通过代理方式连接集群) DAYU Administrator KMS Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 KMS Administrator:数据加密服务加密密钥的管理员权限。 DLI Flink Job、DLI SQL、DLI Spark DLI Service Admin 数据湖探索的所有执行权限。 DWS SQL、Shell、RDS SQL(通过代理方式连接数据源) DAYU Administrator KMS Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 KMS Administrator:数据加密服务加密密钥的管理员权限。 CSS DAYU Administrator Elasticsearch Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 Elasticsearch Administrator:云搜索服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 Create OBS、Delete OBS、OBS Manager OBS OperateAccess 查看桶、上传对象、获取对象、删除对象、获取对象ACL等对象基本操作权限 SMN SMN Administrator 消息通知服务的所有执行权限。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        配置管理
        配置
        配置委托
      • 生产者
        常量字段 说明 从哪个位置开始消费 建议设置为:ConsumeFromWhere.CONSUMEFROMFIRSTOFFSET.name() 消费组名称 消费者必要 最大消费线程数 针对push模式,默认64 最小消费线程数 针对push模式,默认20 消费超时时间 1.默认不设或设置<0:表示不做超时处理,应用自己处理签收2.设置>0:表示一旦超过此消费超时时间(应用未做签收),客户端将自动签收失败,消息进入重试队列。 namesrv 地址必要,例如:192.168.10.10:9876;192.168.10.11:9876 namesrv 用户名必填 namesrv 密码必填 ClusterName 客户端订阅broker的集群名,默认defaultMQBrokerCluster TenantID 租户ID,默认defaultMQTenantID
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        生产者
      • 重置实例密码
        本章节主要介绍如何重置分布式消息服务RabbitMQ实例的密码。 操作场景 如果您忘记了创建实例时设置的密码,通过重置密码功能,重新设置一个新的密码,使用新密码连接RabbitMQ实例。 说明 只有处于“运行中”状态的RabbitMQ实例支持重置密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,重置实例密码。 在待重置密码的实例所在行,单击“更多 > 重置密码”。 单击RabbitMQ实例名称,进入实例详情页面。单击右上角的“更多 > 重置密码”。 步骤 5 输入“新密码”和“确认密码”,单击“确定”完成密码重置。 重置密码成功,界面提示重置实例的密码成功。 重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        重置实例密码
      • GPU加速/AI加速云主机
        昇腾计算加速型 PAK3型云主机 PAK3型昇腾计算加速型采用Huawei 昇腾910B2 NPU,属于计算加速型大类,采用硬件直通技术,配备KunPeng920 5250处理器,没有进行资源超配,实例间无CPU/NPU争抢。在提供云主机灵活性的同时,提供高性能AI计算能力和卓越能效比,单卡内存64GB、显存带宽392GB/s、FP16算力313 TFLOPS,同时支持一机多卡,实现计算性能线性倍增。 规格名称 CPU 内存 AI加速卡类型 显存 最大带宽/基准带宽(Gbit/s) 网络收发包(万PPS) 多队列 pak3.4xlarge.8 16 128 Huawei 昇腾910B2 164G 17.5/5.5 100 8 支持的镜像 CTyunOS 23.01 64 位 ARM 版昇腾 25.2.0 专用 银河麒麟高级服务器操作系统 V10 SP3 64 位 ARM 版昇腾 25.2.0 专用 openEuler 22.03 SP2 64 位 ARM 版昇腾 25.2.0 专用 PAK2型云主机 PAK2型昇腾计算加速型采用Atlas 300I Duo NPU,属于计算加速型大类,采用硬件直通技术,配备KunPeng920 7260处理器,没有进行资源超配,实例间无CPU/NPU争抢。在提供云主机灵活性的同时,提供高性能AI计算能力和卓越能效比,单卡内存96GB、显存带宽408GB/s、FP16算力140 TFLOPS,同时支持一机多卡,实现计算性能线性倍增。 规格名称 CPU 内存 AI加速卡类型 显存 最大带宽/基准带宽(Gbit/s) 网络收发包(万PPS) 多队列 pak2.4xlarge.8 16 128 Huawei Atlas 300I duo 196G 24/8 220 8 pak2.4xlarge.9 16 144 Huawei Atlas 300I duo 196G 24/8 220 8
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品规格
        GPU加速/AI加速云主机
      • 使用RabbitMQ触发器
        配置RabbitMQ事件触发函数 1. 返回函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2. 选择待配置的函数,单击进入函数详情页。 3. 在函数详情页,选择函数版本。 4. 在“代码”页签下,单击“测试”,弹出“配置测试事件”对话框。 5. 填写如表所示测试信息后,单击“保存”。 表 测试信息 参数 说明 配置测试事件 可创建新的测试事件也可编辑已有的测试事件。选择默认值:“创建新的测试事件”。 事件模板 选择“rabbitmqeventtemplate模板”,使用系统内置RabbitMQ事件模板。 事件名称 事件名称必须以大写或小写字母开头,支持字母(大写或小写),数字和下划线“”(或中划线“”),并以字母或数字结尾,长度为125个字符,例如kafka123test。 测试事件 自动加载系统内置RabbitMQ事件模板,本例不做修改。 6. 单击“测试”,可以得到函数运行结果,函数会返回输入RabbitMQ消息数据。
        来自:
        帮助文档
        函数工作流
        用户指南
        配置触发器
        使用RabbitMQ触发器
      • 回收站
        分布式消息服务Kafka实例回收站可展示到期、已退订的实例,您可以在回收站对这些实例执行恢复、彻底销毁等操作。 说明 回收站功能目前为白名单特性,如需要使用该特性,请联系技术支持开通后使用。 注意事项 根据付费方式的不同,当实例到期或欠费后,各时间节点对应的影响有所不同。更多信息,请参见续费、到期与欠费。 一旦实例到达被彻底销毁的时间点或者执行销毁实例操作后,实例中的数据将被彻底销毁且无法找回。 操作步骤 1. 登录管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 在左侧菜单导航栏,单击【回收站】。 4. 在回收站的实例列表中,根据业务需求执行目标实例操作列中对应的操作: 操作 说明 恢复 跳转到恢复实例页面,用户续订后,完整恢复退订前所有数据,按所选续订时长从恢复时间起自动顺延实例到期时间。 销毁 彻底删除实例及其数据备份。 ⚠️注意:执行该操作后,实例的数据将被彻底删除且无法找回,请谨慎操作。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        回收站
      • 管理安全报告
        此小节介绍企业主机安全管理安全报告。 若需对已订阅的报告内容进行修改、取消或关闭订阅,该章节将指导您完成相关操作。 约束限制 未开启企业版、旗舰版、网页防篡改版、容器版防护不支持安全报告相关操作。 编辑安全报告 1、登录管理控制台。 2、在页面左上角单击选择“区域”,选择“安全>企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。 说明 切换至新版后,在总览页左上角单击“返回旧版”,可切换至主机安全(旧版)。 4、左侧选择“安全报告”进入安全报告概览页面。服务预设了按月(default monthly security report)和按周(default weekly security report)统计的两个安全报告模板,可直接使用。 5、单击目标报告的“编辑”按钮,对报告进行编辑。 编辑报告 6、对报告基本信息进行编辑,参数说明如表所示。 编辑报告基本信息 报告基本信息参数说明 参数名称 参数说明 取值样例 报告名称 默认的报告名称。 default monthly security report 报告类型 报告的统计周期类型名称,不可编辑。 安全月报 报告发送时间 报告自动发送时间。 报告接收方式 生成的安全报告接收方式。 消息中心:使用消息中心和其它安全服务共同使用“安全事件通知”的信息接收人。需登录控制台,在右上角信箱查看。 消息主题:为HSS单独创建的主题,设置告警通知接收人。可选择短信或邮件通知。 无需发送到邮箱:不发送报告至邮箱。 消息中心 7、确认信息无误,单击页面右下角“下一步”,编辑报告内容。 8、在左侧勾选或取消报告项,右侧可预览,确认无误,单击“保存”,报告修改成功。
        来自:
        帮助文档
        企业主机安全
        用户指南
        安全报告
        管理安全报告
      • 创建主题和订阅组
        本文介绍分布式消息服务RocketMQ入门指引的创建主题和订阅组内容。 背景信息 在实例创建完成后,需要创建主题和订阅组来进行消息实例的日常功能运转。 主题:在RocketMQ中,主题(Topic)是消息发布的逻辑分组。它类似于一个消息的分类或者标签,帮助用户将不同类型的消息进行归类和管理。通常情况下,一个主题可以包含多个消息生产者和多个消息消费者。通过使用主题,RocketMQ能够实现高效的消息发布和订阅机制,帮助用户更好地管理和组织消息。 订阅组:订阅组是 RocketMQ 中的一个重要概念,用于实现消息的发布与订阅模式。一个订阅组可以包含多个消费者实例,这些实例共同消费同一个主题下的消息。当消息被发送到主题时,订阅组中的每个消费者实例会按照一定规则来均衡地接收消息,并进行相应的处理。订阅组是 RocketMQ 提供的一种灵活且可扩展的方式,用于实现消息的发布与订阅模式,并保证消息在消费者之间的均衡分配和可靠处理。 集群:RocketMQ集群是一种由多个节点(或者称为Broker)组成的分布式消息中间件系统。每个节点都具有相同的功能并且可以处理和存储消息。通过将消息分发到不同的节点,RocketMQ集群能够实现高可用性和可伸缩性。通过使用RocketMQ集群,可以实现消息传输的并行处理、容错性和高可用性,满足高并发场景下的消息传递需求。 创建主题 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入主题管理菜单,点击【新建主题】按钮 5、 在弹出的新建主题页面,填写如下字段信息 1)默认展示当前集群名称,不可修改。 2)选择主题所在的Broker,按照实例创建时候选择的主备节点对数列出每个broker,可复选。 3)填写主题名称,名字限制2到64个字符,超过限制会导致创建主题失败,用户创建主题只能包含大小写字母数字以及和符号。 4)按照实际需求填写主题备注。 5)填写每个Broker分区数,分区数必须大于0,小于等于8,创建严格顺序队列时,设置分区数为1,且只能选择一个broker。 6)选择生产模式,RocketMQ是一个开源的分布式消息中间件,它支持两种消息生产模式:有序和无序。 有序消息生产模式(Ordered Message)是指按照特定规则将消息发送到相同的Message Queue中,并且确保消息在消费者端按照相同的顺序进行消费。这种模式适用于那些需要严格按照消息顺序进行处理的场景,比如订单处理、流程审批等。 无序消息生产模式(Unordered Message)是指消息发送到不同的Message Queue中,每个Queue都是独立的。消费者可以并行地从多个Queue中消费消息,而无需关心消息的顺序。这种模式适用于那些不需要严格按照消息顺序处理的场景,比如日志收集、异步通知等。 需要注意的是,无论是有序还是无序消息生产模式,RocketMQ都提供了高可靠性的消息传输和存储,并支持水平扩展和高吞吐量的特性。根据具体的业务需求,选择适合的消息生产模式能够更好地满足应用的要求。 7)选择主题的读写权限,支持读写、只读、只写3类权限。 6、 完成主题信息填写后,保存确认即可新增主题。 7、 若希望批量创建主题,可点击【批量创建】按钮 批量创建 注意:输入的主题名不要带空格等特殊字符。 通过上传csv文件,批量创建主题。格式:点击【主题模板】按钮下载。 主题模板 批量上传主题的模板,必须使用模板,才能够上传成功,模板格式如下:
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        创建主题和订阅组
      • 应用拓扑
        以应用为维度,进行可视化拓扑展示。 功能入口 1. 选择目标资源池,并登录APM组件控制台。 2. 在左侧导航栏中选择「应用监控 」「应用列表」。 3. 在应用列表中选择您想查看的应用,点击「应用名称」打开新的应用详情链接。 4. 在左侧导航栏中选择「应用拓扑」查看相应信息。 功能说明 拓扑图是一种以图形化方式展示应用之间关系的图表,帮助开发人员或运维人员了解应用程序的整体结构和运行状况。 信息 拓扑图通常包括以下信息: 应用或服务的组成部分:例如数据库、缓存、消息队列、Web 服务器等,当前版本支持的插件见下表,暂未支持的插件会显示为unknown。 类别 支持的服务 其他基础服务 JavaMethod 其他基础服务 Netty 数据库 Mysql 数据库 ClickHouse 数据库 EsRestClient 数据库 MongoDb 缓存 Redis 缓存 Jedis 缓存 Lettuce 消息 KafkaConsumer 消息 KafkaProducer 消息 RabbitMqConsumer 消息 RabbitMqProducer Web容器 Tomcat 外部调用 HttpClient 组件之间的依赖关系:例如一个组件调用另一个组件的接口等,包含各项基础指标 指标名 说明 客户端 显示当前链路的客户端名称。 服务端 显示当前链路的服务端名称。 请求总量 显示当前链路在筛选时间段内的请求次数。 吞吐量 显示当前链路在筛选时间段内平均每分钟的请求量。 平均响应时间 显示当前链路在筛选时间段内所有请求的平均响应时间。 错误数 显示当前链路在筛选时间段内请求错误次数。 错误率 显示当前链路在筛选时间段内请求错误率,即:错误数/请求总量。 通过分析拓扑图,开发/运维人员可以快速定位应用中的问题,并进行及时的排查和修复。拓扑图还可以帮助开发/运维人员进行容量规划和性能优化,以提高应用程序或服务的性能和可靠性。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        应用拓扑
      • 服务内联委托
        可信云服务可以通过IAM委托的方式访问其他云服务的资源。可信实体为天翼云服务的IAM委托,包括普通云服务委托和云服务关联委托。本文介绍函数计算的服务内联委托。 什么是服务内联委托 在某些场景下,函数计算为了完成自身的某个功能,需要获取其他云服务的访问权限,因此,函数计算创建了与云服务内联委托,即服务内联委托CtyunServiceDelegateRoleForFC。函数计算支持CtyunServiceDelegateRoleForFC和FaaS函数的绑定,实现最小授权范围内授予函数访问其他云服务的权限。 使用函数计算时,系统提供的服务内联委托及其包含的系统权限策略如下: 服务内联委托:CtyunServiceDelegateRoleForFC 系统权限策略:CtyunServiceInlineDelegateRolePolicyForFC CtyunServiceDelegateRoleForFC 服务内联委托CtyunServiceDelegateRoleForFC可以获取访函数列表、函数详情、创建函数、删除函数、更新函数以及调用函数的权限。 服务内联委托CtyunServiceDelegateRoleForFC被授予权限策略CtyunServiceInlineDelegateRolePolicyForFC,该权限策略的内容如下。 json { "Version": "1", "Statement": [ { "Action": [ "cf:inst:CreateFunction", "cf:inst:UpdateFunction", "cf:inst:ListFunction", "cf:inst:GetFunction", "cf:inst:InvokeFunction", "cf:inst:DeleteFunction" ], "Resource": "", "Effect": "Allow" } ] } 以下是使用函数计算时,需要创建和使用服务内联委托的场景: 为函数计算配置专有网络VPC、交换机或弹性网卡等,提升数据安全性,实现VPC内的网络互通。 访问容器镜像仓库拉取镜像创建容器镜像函数,能够利用容器镜像资源灵活部署函数。 配置消息队列或事件总线等消息服务的访问权限,使用函数计算监听消息源的事件。当有新的消息或事件产生时,可以直接触发函数执行,实现事件驱动的计算模型。 配置日志服务相关权限,允许自动收集函数执行日志,便于日志的搜索、分析和可视化展示,帮助用户快速定位问题。
        来自:
        帮助文档
        函数计算
        安全与合规
        IAM访问控制
        服务内联委托
      • 用户管理
        本节介绍了在RabbitMQ实例中如何创建、修改和删除用户。 背景信息 客户端访问分布式消息服务RabbitMQ 版服务端时,需要传入用户名和密码进行权限认证,认证通过才允许访问服务端。 操作步骤 创建用户 1.登录管理控制台。 2.进入RabbitMQ管理控制台。 3.在实例列表页在操作列,目标实例行点击“管理”。 4.点击“集群管理”后点击“用户”到达用户管理页面,点击“新建”按钮。 5.点击“新建”后出现以下画面,输入用户密码后点击“确定”即可创建。 修改用户 1.在用户管理页面,在目标用户行点击“修改”,即可重置用户密码。 删除用户 1.在用户管理页面,在目标用户行点击“删除”,即可删除用户。 获取用户token 仅云原生引擎支持 (1)登录管理控制台。 (2)进入RabbitMQ管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“集群管理”后点击“用户”到达用户管理页面,点击“Token”按钮。 在RabbitMQ中,获取用户令牌(token)的作用如下: 认证和授权:用户令牌用于认证和授权用户对RabbitMQ的访问权限。通过获取有效的用户令牌,可以验证用户的身份,并根据其权限配置来限制或授予其对虚拟主机、队列、交换机等资源的访问权限。 安全性:通过使用用户令牌进行认证,可以增加RabbitMQ系统的安全性。只有具有有效令牌的用户才能访问和执行相应的操作,从而减少了未经授权的访问和潜在的安全风险。 资源管理:用户令牌可以用于管理和限制用户对RabbitMQ资源的使用。通过为每个用户分配独立的令牌,可以控制其对虚拟主机、队列、交换机等资源的使用情况,避免资源滥用或过度消耗。 追踪和审计:通过用户令牌,可以追踪和记录用户对RabbitMQ的操作和访问历史。这对于安全审计、故障排查和性能优化等方面非常有用,可以帮助管理员了解系统的使用情况和问题定位。 总之,获取用户令牌是为了实现认证、授权和安全性,以及对RabbitMQ资源的管理和追踪。通过令牌,可以确保只有经过授权的用户才能访问和操作RabbitMQ,提高系统的安全性和可管理性。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        用户管理
      • RocketMQ PHP SDK
        说明 分布式消息服务RocketMQ兼容了社区版 HTTP SDK,您可以使用社区版 HTTP SDK接入分布式消息服务RocketMQ。 前提条件: 1. 在PHP安装目录下的composer.json文件中加入社区PHP SDK 依赖。 2. 使用Composer安装依赖。 composer install 发送普通消息 client new MQClient( // 填写分布式消息服务RocketMQ控制台HTTP接入点 "${HTTPENDPOINT}", // 填写AccessKey,在管理控制台创建 "${ACCESSKEY}", // 填写SecretKey 在管理控制台创建 "${SECRETKEY}" ); // 所属的 Topic $topic "${TOPIC}"; // Topic所属实例ID,默认实例为空NULL $instanceId "${INSTANCEID}"; $this>producer $this>client>getProducer($instanceId, $topic); } public function run() { try { for ($i 1; $i putProperty("a", $i); // 设置消息KEY $publishMessage>setMessageKey("MessageKey"); $result $this>producer>publishMessage($publishMessage); print "Send mq message success. msgId is:" . $result>getMessageId() . ", bodyMD5 is:" . $result>getMessageBodyMD5() . "n"; } } catch (Exception $e) { printr($e>getMessage() . "n"); } }}$instance new NormalProducerExample();$instance>run();?> 消费普通消息 client new MQClient( // 填写分布式消息服务RocketMQ控制台HTTP接入点 "${HTTPENDPOINT}", // 填写AccessKey,在管理控制台创建 "${ACCESSKEY}", // 填写SecretKey 在管理控制台创建 "${SECRETKEY}" ); // 所属的 Topic $topic "${TOPIC}"; // 您在控制台创建的 Consumer ID(Group ID) $groupId "${GROUPID}"; // Topic所属实例ID,默认实例为空NULL $instanceId "${INSTANCEID}"; $this>consumer $this>client>getConsumer($instanceId, $topic, $groupId, "TagA"); } public function run() { // 在当前线程循环消费消息,建议是多开个几个线程并发消费消息 while (True) { try { // 长轮询消费消息 // 长轮询表示如果topic没有消息则请求会在服务端挂住3s,3s内如果有消息可以消费则立即返回 $messages $this>consumer>consumeMessage( 3, // 一次最多消费3条(最多可设置为16条) 3 // 长轮询时间3秒(最多可设置为30秒) ); } catch (MQExceptionMessageResolveException $e) { // 当出现消息Body存在不合法字符,无法解析的时候,会抛出此异常。 // 可以正常解析的消息列表。 $messages $e>getPartialResult()>getMessages(); // 无法正常解析的消息列表。 $failMessages $e>getPartialResult()>getFailResolveMessages(); $receiptHandles array(); foreach ($messages as $message) { // 处理业务逻辑。 $receiptHandles[] $message>getReceiptHandle(); printf("MsgID %sn", $message>getMessageId()); } foreach ($failMessages as $failMessage) { // 处理存在不合法字符,无法解析的消息。 $receiptHandles[] $failMessage>getReceiptHandle(); printf("Fail To Resolve Message. MsgID %sn", $failMessage>getMessageId()); } $this>ackMessages($receiptHandles); continue; } catch (Exception $e) { if ($e instanceof MQExceptionMessageNotExistException) { // 没有消息可以消费,接着轮询 printf("No message, contine long polling!RequestId:%sn", $e>getRequestId()); continue; } printr($e>getMessage() . "n"); sleep(3); continue; } print "consume finish, messages:n"; // 处理业务逻辑 $receiptHandles array(); foreach ($messages as $message) { $receiptHandles[] $message>getReceiptHandle(); printf("MessageID:%s TAG:%s BODY:%s nPublishTime:%d, FirstConsumeTime:%d, nConsumedTimes:%d, NextConsumeTime:%d,MessageKey:%sn", $message>getMessageId(), $message>getMessageTag(), $message>getMessageBody(), $message>getPublishTime(), $message>getFirstConsumeTime(), $message>getConsumedTimes(), $message>getNextConsumeTime(), $message>getMessageKey()); printr($message>getProperties()); } // $message>getNextConsumeTime()前若不确认消息消费成功,则消息会重复消费 // 消息句柄有时间戳,同一条消息每次消费拿到的都不一样 printr($receiptHandles); try { $this>ackMessages($receiptHandles); } catch (Exception $e) { if ($e instanceof MQExceptionAckMessageException) { // 某些消息的句柄可能超时了会导致确认不成功 printf("Ack Error, RequestId:%sn", $e>getRequestId()); foreach ($e>getAckMessageErrorItems() as $errorItem) { printf("tReceiptHandle:%s, ErrorCode:%s, ErrorMsg:%sn", $errorItem>getReceiptHandle(), $errorItem>getErrorCode(), $errorItem>getErrorCode()); } } } print "ack finishn"; } } public function ackMessages($receiptHandles) { try { $this>consumer>ackMessage($receiptHandles); } catch (Exception $e) { if ($e instanceof MQExceptionAckMessageException) { // 某些消息的句柄可能超时,会导致消费确认失败。 printf("Ack Error, RequestId:%sn", $e>getRequestId()); foreach ($e>getAckMessageErrorItems() as $errorItem) { printf("tReceiptHandle:%s, ErrorCode:%s, ErrorMsg:%sn", $errorItem>getReceiptHandle(), $errorItem>getErrorCode(), $errorItem>getErrorCode()); } } } }}$instance new ConsumerExample();$instance>run();?>
        来自:
        帮助文档
        分布式消息服务RocketMQ
        SDK参考
        RocketMQ PHP SDK
      • 收发事务消息
        分布式消息服务RocketMQ版的事务消息支持在业务逻辑与发送消息之间提供事务保证,通过两阶段的方式提供对事务消息的支持,事务消息交互流程如图1所示。 图1 事务消息交互流程 事务消息生产者首先发送半消息,然后执行本地事务。如果执行成功,则发送事务提交,否则发送事务回滚。服务端在一段时间后如果一直收不到提交或回滚,则发起回查,生产者在收到回查后重新发送事务提交或回滚。消息只有在提交之后才投递给消费者,消费者对回滚的消息不可见。 收发事务消息前,请参考收集连接信息收集RocketMQ所需的连接信息。 准备环境 1. 在命令行输入python,检查是否已安装Python。得到如下回显,说明Python已安装。 PS C:> python Python 3.9.9 (tags/v3.9.9:ccb0e6a, Nov 15 2021, 18:08:50) [MSC v.1929 64 bit (AMD64)] on win32 Type "help", "copyright", "credits" or "license" for more information. 如果未安装Python,请使用以下命令安装: pip install rocketmqclientpython 2. 安装librocketmq库和rocketmqclientpython。 说明 建议下载rocketmqclientcpp2.2.0,获取librocketmq库。 3. 将librocketmq.so添加到系统动态库搜索路径。 1. 查找librocketmq.so的路径。 find / name librocketmq.so 2. 将librocketmq.so添加到系统动态库搜索路径。 ln s /查找到的librocketmq.so路径/librocketmq.so /usr/lib sudo ldconfig 以下示例代码中的参数说明如下,请参考收集连接信息获取参数值。 GROUP:表示消费组名称。 ENDPOINT:表示实例连接地址和端口。 TOPIC:表示Topic名称。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        开发指南
        Python
        收发事务消息
      • 安全接入点接入
        本节介绍如何使用的安全接入点接入Kafka的方法,文档以Java代码为例。 前提条件 已配置正确的安全组。 已获取连接Kafka实例的地址。 如果Kafka实例未开启自动创建Topic功能,在连接实例前,请先创建Topic。 已创建弹性云服务器,如果使用内网同一个VPC访问实例,请设置弹性云服务器的VPC、子网、安全组与Kafka实例的VPC、子网、安全组一致。 需要用户先在用户管理页面创建用户,然后给对应的topic授予生产消费权限。 使用内网同一个VPC访问,实例端口为8092,实例连接地址从控制台实例详情菜单处获取,如下图所示。 Maven中引入Kafka客户端 java Kafka实例基于社区版本2.8.2/3.6.2,推荐客户端保持一致。 org.apache.kafka kafkaclients 2.8.2/3.6.2 客户端关键参数 java Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SASLPLAINTEXT"); props.put("sasl.mechanism", "SCRAMSHA512"); props.put(SaslConfigs.SASLJAASCONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username"testuser" password"Kafka@Test";"); 生产者代码示例 java package com.justin.kafka.service.gw.sasl; import org.apache.kafka.clients.CommonClientConfigs; import org.apache.kafka.clients.producer.Callback; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import org.apache.kafka.common.config.SaslConfigs; import org.apache.kafka.common.serialization.StringSerializer; import java.util.Properties; public class Producer { private final KafkaProducer producer; public final static String TOPIC "testtopic2"; public final static String BROKERADDR "192.168.0.11:8092,192.168.0.9:8092,192.168.0.10:8092"; public Producer() { Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SASLPLAINTEXT"); props.put("sasl.mechanism", "SCRAMSHA512"); props.put(SaslConfigs.SASLJAASCONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username"testuser" password"Kafka@Test";"); props.put(ProducerConfig.ACKSCONFIG, "all"); props.put("retries",3); producer new KafkaProducer<>(props); } public void produce() { try { for (int i 0; i (TOPIC, data), new Callback() { public void onCompletion(RecordMetadata metadata, Exception exception) { if (exception ! null) { // TODO: 异常处理 exception.printStackTrace(); return; } System.out.println("produce msg completed, partition id " + metadata.partition()); } }); } } catch (Exception e) { // TODO: 异常处理 e.printStackTrace(); } producer.flush(); producer.close(); } public static void main(String[] args) { Producer producer new Producer(); producer.produce(); } }
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka
        安全接入点接入
      • 使用Kafka客户端
        本章节主要介绍使用Kafka客户端 。 操作场景 用户可以在集群客户端完成Topic的创建、查询、删除等基本操作。 前提条件 已安装客户端,例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Kafka客户端(MRS 3.x之前版本) 1. 进入ZooKeeper实例页面: 单击集群名称,登录集群详情页面,选择“组件管理 > ZooKeeper > 实例”。 说明 若集群详情页面没有“组件管理”页签,请先完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 2. 查看ZooKeeper角色实例的IP地址。 记录ZooKeeper角色实例其中任意一个的IP地址即可。 3. 登录安装客户端的节点。 4. 执行以下命令,切换到客户端目录,例如“/opt/hadoopclient/Kafka/kafka/bin”。 cd /opt/hadoopclient/Kafka/kafka/bin 5. 执行以下命令,配置环境变量。 source /opt/hadoopclient/bigdataenv 6. 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit Kafka用户 7. 创建一个Topic: sh kafkatopics.sh create topic 主题名称 partitions主题占用的分区数 replicationfactor主题的备份个数 zookeeper ZooKeeper角色实例所在节点IP 地址 : clientPort /kafka 例如:sh kafkatopics.sh create topic TopicTestpartitions 3replicationfactor 3 zookeeper 10.10.10.100:2181/kafka 8. 执行以下命令,查询集群中的Topic信息: sh kafkatopics.sh list zookeeper ZooKeeper角色实例所在节点IP 地址:clientPort /kafka 例如:sh kafkatopics.sh list zookeeper 10.10.10.100:2181/kafka 9. 删除7中创建的Topic: sh kafkatopics.sh delete topic主题名称 zookeeper ZooKeeper角色实例所在节点IP 地址 : clientPort /kafka 例如:sh kafkatopics.sh delete topic TopicTest zookeeper 10.10.10.100:2181/kafka 输入"y",回车。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Kafka客户端
      • 创建Topic
        场景描述 RocketMQ的Topic是消息的逻辑分类单位,用于将消息进行分组和管理。创建Topic的场景可以根据具体业务需求来确定,以下是一些常见的场景描述: 消息发布与订阅:当需要实现消息发布与订阅模式时,可以创建一个主题来管理相关的消息。发布者可以将消息发送到该主题,而订阅者可以订阅该主题以接收感兴趣的消息。 事件驱动架构:在事件驱动的架构中,不同的模块之间通过事件进行通信。每个事件可以对应一个主题,模块可以将事件发送到相应的主题,其他模块可以订阅该主题以接收事件通知。 日志收集与分析:当需要收集大量的日志数据并进行分析时,可以创建一个主题来管理日志消息。日志产生者可以将日志消息发送到该主题,而日志消费者可以订阅该主题以进行实时分析或存储。 异步处理:当需要将某些操作异步处理时,可以创建一个主题来管理相关的异步消息。操作发起者可以将异步消息发送到该主题,而异步处理器可以订阅该主题以进行后续的异步处理。 分布式事务消息:在分布式系统中,当需要实现分布式事务消息时,可以创建一个主题来管理相关的事务消息。事务发起者可以将事务消息发送到该主题,而事务消费者可以订阅该主题以进行事务的处理和确认。 总的来说,创建主题的场景可以根据具体的业务需求来确定。主题可以帮助将消息进行逻辑分类和管理,实现不同的消息传递模式和业务场景 新建Topic 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【创建Topic】按钮 5、 在弹出的创建Topic页面,填写如下字段信息 1)默认展示当前集群名称,不可修改。 2)选择Topic所在的Broker,按照实例创建时候选择的主备节点对数列出每个broker,可复选。 3)填写Topic名称,名字限制2到64个字符,超过限制会导致创建Topic失败,用户创建Topic只能包含大小写字母数字以及和符号。 4)按照实际需求填写Topic备注。 5)填写每个Broker分区数,分区数必须大于0,小于等于8,创建严格顺序队列时,设置分区数为1,且只能选择一个broker。 6)选择生产模式,RocketMQ是一个开源的分布式消息中间件,它支持两种消息生产模式:有序和无序。 有序消息生产模式(Ordered Message)是指按照特定规则将消息发送到相同的Message Queue中,并且确保消息在消费者端按照相同的顺序进行消费。这种模式适用于那些需要严格按照消息顺序进行处理的场景,比如订单处理、流程审批等。 无序消息生产模式(Unordered Message)是指消息发送到不同的Message Queue中,每个Queue都是独立的。消费者可以并行地从多个Queue中消费消息,而无需关心消息的顺序。这种模式适用于那些不需要严格按照消息顺序处理的场景,比如日志收集、异步通知等。 需要注意的是,无论是有序还是无序消息生产模式,RocketMQ都提供了高可靠性的消息传输和存储,并支持水平扩展和高吞吐量的特性。根据具体的业务需求,选择适合的消息生产模式能够更好地满足应用的要求。 7)选择Topic的读写权限,支持读写、只读、只写3类权限。 6、 完成Topic信息填写后,保存确认即可新增主题。 7、 若希望批量创建Topic,可点击【导入Topic】按钮 导入Topic 注意:输入的Topic名不要带空格等特殊字符。 通过上传csv文件,批量创建主题。格式:点击【下载模板】按钮下载。 Topic模板 批量上传Topic的模板,必须使用模板,才能够上传成功,模板格式如下: TopicName QueueNums Perm MessageType Topic1 4 6 NORMAL Topic2 1 6 FIFO Topic3 4 6 DELAY Topic4 4 6 TRANSACTION
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        创建Topic
      • 1
      • ...
      • 15
      • 16
      • 17
      • 18
      • 19
      • ...
      • 244
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      知识库问答

      推荐文档

      PostgreSQL

      产品价格

      云课堂 第八课:通过IPv6隧道实现天翼云云主机IPv4和IPv

      启动会议

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号