云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RabbitMQ版_相关内容
      • ALM-14022 NameNode RPC队列平均时间超过阈值
        可能原因 NameNode节点的CPU性能不足,导致NameNode无法及时处理消息。 NameNode所设置的内存太小,频繁Full GC造成JVM卡顿。 NameNode配置参数不合理,导致NameNode无法充分利用机器性能。 HDFS的业务访问量太大,超过了NameNode的负载能力。 处理步骤 获取该告警的信息 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在告警列表中找到该告警。 2.单击该告警,查看下面的告警详情。从“产生时间”可知该告警的触发时间;从“定位信息”中的“主机名”信息可知发出该告警的NameNode节点主机名;从“定位信息”中的NameServiceName信息可知发出该告警的NameService名称。 查看是否阈值设置过低 3.查看依赖于HDFS的业务的运行状态是否正常运行。查看是否存在运行慢、执行任务超时的情况。 是,执行步骤8。 否,执行步骤4。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HDFS”,单击图表区域右上角的下拉菜单,单击“定制”,在弹出的对话框中选择“主NameNode RPC队列平均时间”,单击“确定”。 5.查看“主NameNode RPC队列平均时间”监控中,获取发出告警的NameService的当前的监控值。 6.在FusionInsight Manager首页,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > HDFS”,找到“主NameNode RPC队列平均时间”,单击default规则中“操作”栏中的“修改”,修改“阈值”为当前监控值的150%。单击“确定”,保存新阈值。 7.等待1分钟,查看该告警是否自动消除。 是,处理结束。 否,执行步骤8。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14022 NameNode RPC队列平均时间超过阈值
      • 旧资费
        说明 分布式消息服务Kafka旧资费根据实例规格分为基础版和高级版,存储空间按照不同类型收费。 目前在 芜湖2、上海7、重庆2、乌鲁木齐27、石家庄20、内蒙6、北京5 资源池开放订购。 实例价格如下: 规格 标准资费(元/月) 标准资费(元/小时) 基础版(100 MB/s) 1300 2.71 高级版(300 MB/s ) 2100 4.38 存储空间价格如下: 存储类型 标准资费(元/G/月) 标准资费(元/G/小时) 普通 IO 0.45 0.0008 高 IO 0.6 0.0013 超高 IO 1.5 0.0032
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        产品资费
        旧资费
      • 支持审计的云产品及关键操作列表
        容器与中间件 分类 云产品 支持审计的关键操作列表 容器与中间件 云容器引擎 云容器引擎支持的关键操作列表 容器与中间件 容器镜像服务 容器镜像服务支持的关键操作列表 容器与中间件 分布式消息服务Kafka 分布式消息服务Kafka支持的关键操作列表 容器与中间件 弹性容器实例 弹性容器实例服务支持的关键操作列表 数据库 分类 云产品 支持审计的关键操作列表 数据库 关系型数据库MySQL版 关系型数据库MySQL版服务支持的关键操作列表 数据库 关系型数据库PostgreSQL版服务 关系型数据库PostgreSQL版服务支持的关键操作列表 数据库 关系型数据库SQL Server版 关系型数据库SQL Server版服务支持的关键操作列表 数据库 分布式关系型数据库 分布式关系型数据库支持的关键操作列表 数据库 文档数据库服务 文档数据库服务支持的关键操作列表 数据库 分布式缓存服务Redis版 分布式缓存服务Redis版支持的关键操作列表 数据库 数据传输服务DTS 数据传输服务DTS支持的关键操作列表
        来自:
        帮助文档
        云审计
        用户指南
        支持审计的云产品及关键操作列表
      • 监控项说明
        本页介绍了文档数据库服务监控信息说明。 监控指标 说明 默认监控周期 默认监控频率 CPU 实例的CPU使用率,包括: sys(CPU运行于核心态时的使用率) 、usr(CPU运行于用户态时的使用率)。 1小时 1分钟 内存 实例的内存利用率,包括: 机器内存利用率 、数据库具体的内存使用情况。 1小时 1分钟 磁盘 实例相关的磁盘性能指标,包括:磁盘利用率、Iops:每秒读写操作数、每秒读写流量(kb) 、磁盘平均队列长度。 1小时 1分钟 连接 实例连接相关的指标,包括:连接数、连接数使用率。 1小时 1分钟 TPSQPS 数据库的读写相关性能指标,包括: 指令command操作数 、查询query操作数 、插入insert操作数 、删除delete操作数 、更新update操作数 、getmore操作数。 1小时 1分钟 请求 数据库的请求相关指标,包括:活跃写请求(Active Write)、活跃读请求(Active Read)、排队写请求(Queue Write)、排队读请求(Queue Read)。 1小时 1分钟 网络 实例的网络请求数量、流量。 1小时 1分钟 全局锁 实例当前等待全局锁的队列长度,包括:全局读锁的等待队列长度、全局写锁的等待队列长度、所有全局锁的等待队列长度。 1小时 1分钟 游标 实例当前使用的cursor数,包括:当前cursor打开数量、cursor超时数量。 1小时 1分钟 缺页错误数 进程每秒页面错误率。 1小时 1分钟 断言 包括:每秒平均增加的常规断言率 、每秒平均警告率 、每秒平均消息率 、每秒平均用户断言率。 1小时 1分钟 wiredtiger 存储引擎相关指标,包括: wiredtiger内存数据量 、wiredtiger内存脏数据量 、wiredtiger磁盘读入内存量 、wiredtiger内存写入磁盘量、Cache使用百分比、Cache脏数据百分比。 1小时 1分钟 oplog(副本集独有) 包括:主节点oplog可用时间 、主节点oplog生成速率 、主备oplog重叠时长 、主备延时。 1小时 1分钟
        来自:
        帮助文档
        文档数据库服务
        用户指南
        监控管理
        监控项说明
      • 使用限制
        分类 组件 版本 微服务 org.springframework.cloud:springclouddependencies 2021.0.8 微服务 org.springframework.boot:springbootstarterweb 2.7.12 微服务 org.springframework.cloud:springcloudstarteropenfeign 3.1.8 微服务 org.apache.dubbo:dubbo 2.7.13 负载均衡 org.springframework.cloud:springcloudloadbalancer 3.1.7 微服务注册中心 com.alibaba.cloud:springcloudstarteralibabanacosdiscovery 2021.1 消息队列 org.apache.rocketmq:rocketmqclient 4.8.0 数据库 mysql:mysqlconnectorjava 5.1.40及以上版本 8.0.15及以上版本 数据库 org.postgresql:postgresql 42.5.0及以上版本
        来自:
        帮助文档
        应用高可用
        产品简介
        应用容灾多活
        使用限制
      • 设置Topic权限
        (可选)删除Topic权限 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 在导航栏单击“Topic管理”,进入Topic列表页面。 步骤 6 在待删除用户权限的Topic所在行,单击“设置用户权限”,弹出“设置用户权限”对话框。 步骤 7 在“已选择”区域,在待删除权限的SASLSSL用户所在行,单击“删除”,然后单击“确定”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        设置Topic权限
      • 配置DMS Kafka连接
        本章节主要介绍配置DMS Kafka连接。 连接DMS的Kafka队列时,相关参数详见下表:DMS Kafka连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 dmslink 服务类型 选择DMS Kafka版本,目前只有专享版。 专享版 Kafka Broker Kafka专享版实例的地址,格式为host:port。 Kafka SASLSSL 选择是否打开客户端连接Kafka专享版实例时SSL认证的开关。 开启Kafka SASLSSL,则数据加密传输,安全性更高,但性能会下降。 是 用户名 开启Kafka SASLSSL时显示该参数,表示连接DMS Kafka的用户名。 密码 开启Kafka SASLSSL时显示该参数,表示连接DMS Kafka的密码。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置DMS Kafka连接
      • 导出Topic
        本文主要介绍 导出Topic。 本章节指导您在控制台导出Topic,支持批量导出。 前提条件 已创建Topic。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 在页面右上角单击,导出Topic列表到本地。 Topic列表中包含如下信息:Topic名称、分区数、副本数、老化时间、是否同步复制或同步落盘。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        导出Topic
      • 管理Smart Connect任务
        本节介绍如何管理Smart Connect任务。 在创建Smart Connect任务后,可以在控制台对任务进行管理操作,包括查看任务、删除任务、启动/暂停任务、重启任务等。 前提条件 已创建Smart Connect任务。 查看Smart Connect任务 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击Smart Connect任务名称,进入Smart Connect任务详情页面。 7、查看Smart Connect任务的基本信息、源端信息和目标端信息。 说明 如果Smart Connect任务没有配置源端信息/目标端信息,在Smart Connect任务详情页面不显示源端信息/目标端信息。 结束 删除Smart Connect任务 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、在待删除的Smart Connect任务所在行,单击“删除”,弹出“删除任务”对话框。 7、单击“确定”,完成Smart Connect任务的删除。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        管理Smart Connect任务
      • 查看流控监控
        本文主要介绍 查看流控监控。 本章节指导您在控制台查看每个代理上用户/客户端/Topic的流控使用量。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控监控”,进入流控监控页面。 步骤 6 设置查询流控的参数。 表查询流控的参数说明 参数 说明 :: 统计方式 设置流控的统计方式。 前n个:统计带宽使用量排名前x 个的用户/客户端/Topic,x由您自行输入 带宽速率:统计带宽速率大于x MB/s的用户/客户端/Topic,x由您自行输入 带宽使用量:统计带宽使用量超过x %的用户/客户端/Topic,x由您自行输入 统计类型 设置流控的统计类型。 生产:统计生产消息的流控 消费:统计消费消息的流控 统计维度 设置流控的统计维度。 User/Client:统计用户/客户端的流控 Topic:统计Topic的流控 图 查询流控的参数 步骤 7 单击“查询”,查看每个代理上用户/客户端/Topic的流控使用量。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        查看流控监控
      • 删除流控
        本文主要介绍删除流控。 操作场景 本章节指导您在无需流控时,删除流控。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在待删除的流控所在行,单击“删除”,弹出“删除流控”对话框。 步骤 7 单击“是”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示成功删除流控。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        删除流控
      • 生产者
        常量字段 说明 从哪个位置开始消费 建议设置为:ConsumeFromWhere.CONSUMEFROMFIRSTOFFSET.name() 消费组名称 消费者必要 最大消费线程数 针对push模式,默认64 最小消费线程数 针对push模式,默认20 消费超时时间 1.默认不设或设置<0:表示不做超时处理,应用自己处理签收2.设置>0:表示一旦超过此消费超时时间(应用未做签收),客户端将自动签收失败,消息进入重试队列。 namesrv 地址必要,例如:192.168.10.10:9876;192.168.10.11:9876 namesrv 用户名必填 namesrv 密码必填 ClusterName 客户端订阅broker的集群名,默认defaultMQBrokerCluster TenantID 租户ID,默认defaultMQTenantID
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        生产者
      • 创建主题和订阅组
        本文介绍分布式消息服务RocketMQ入门指引的创建主题和订阅组内容。 背景信息 在实例创建完成后,需要创建主题和订阅组来进行消息实例的日常功能运转。 主题:在RocketMQ中,主题(Topic)是消息发布的逻辑分组。它类似于一个消息的分类或者标签,帮助用户将不同类型的消息进行归类和管理。通常情况下,一个主题可以包含多个消息生产者和多个消息消费者。通过使用主题,RocketMQ能够实现高效的消息发布和订阅机制,帮助用户更好地管理和组织消息。 订阅组:订阅组是 RocketMQ 中的一个重要概念,用于实现消息的发布与订阅模式。一个订阅组可以包含多个消费者实例,这些实例共同消费同一个主题下的消息。当消息被发送到主题时,订阅组中的每个消费者实例会按照一定规则来均衡地接收消息,并进行相应的处理。订阅组是 RocketMQ 提供的一种灵活且可扩展的方式,用于实现消息的发布与订阅模式,并保证消息在消费者之间的均衡分配和可靠处理。 集群:RocketMQ集群是一种由多个节点(或者称为Broker)组成的分布式消息中间件系统。每个节点都具有相同的功能并且可以处理和存储消息。通过将消息分发到不同的节点,RocketMQ集群能够实现高可用性和可伸缩性。通过使用RocketMQ集群,可以实现消息传输的并行处理、容错性和高可用性,满足高并发场景下的消息传递需求。 创建主题 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入主题管理菜单,点击【新建主题】按钮 5、 在弹出的新建主题页面,填写如下字段信息 1)默认展示当前集群名称,不可修改。 2)选择主题所在的Broker,按照实例创建时候选择的主备节点对数列出每个broker,可复选。 3)填写主题名称,名字限制2到64个字符,超过限制会导致创建主题失败,用户创建主题只能包含大小写字母数字以及和符号。 4)按照实际需求填写主题备注。 5)填写每个Broker分区数,分区数必须大于0,小于等于8,创建严格顺序队列时,设置分区数为1,且只能选择一个broker。 6)选择生产模式,RocketMQ是一个开源的分布式消息中间件,它支持两种消息生产模式:有序和无序。 有序消息生产模式(Ordered Message)是指按照特定规则将消息发送到相同的Message Queue中,并且确保消息在消费者端按照相同的顺序进行消费。这种模式适用于那些需要严格按照消息顺序进行处理的场景,比如订单处理、流程审批等。 无序消息生产模式(Unordered Message)是指消息发送到不同的Message Queue中,每个Queue都是独立的。消费者可以并行地从多个Queue中消费消息,而无需关心消息的顺序。这种模式适用于那些不需要严格按照消息顺序处理的场景,比如日志收集、异步通知等。 需要注意的是,无论是有序还是无序消息生产模式,RocketMQ都提供了高可靠性的消息传输和存储,并支持水平扩展和高吞吐量的特性。根据具体的业务需求,选择适合的消息生产模式能够更好地满足应用的要求。 7)选择主题的读写权限,支持读写、只读、只写3类权限。 6、 完成主题信息填写后,保存确认即可新增主题。 7、 若希望批量创建主题,可点击【批量创建】按钮 批量创建 注意:输入的主题名不要带空格等特殊字符。 通过上传csv文件,批量创建主题。格式:点击【主题模板】按钮下载。 主题模板 批量上传主题的模板,必须使用模板,才能够上传成功,模板格式如下:
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        创建主题和订阅组
      • 删除SASL_SSL用户
        本章节介绍如何删除SASLSSL用户。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 通过以下任意一种方法,删除SASLSSL用户。 在“用户管理”页签,在待删除的SASLSSL用户所在行,单击“删除”。 在“用户管理”页签,勾选SASLSSL用户名左侧的方框,可选一个或多个,单击信息栏左上侧的“删除”。 说明 创建Kafka实例时设置的SASLSSL用户无法删除。 步骤 6 在弹出的“删除用户”对话框中,单击“是”,完成SASLSSL用户的删除。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        SASL_SSL用户管理
        删除SASL_SSL用户
      • 创建SASL_SSL用户
        本文主要介绍 创建SASLSSL用户。 分布式消息服务Kafka支持对Topic进行ACL(Access Control List)权限管理,您可以在Topic中为不同的SASLSSL用户设置不同的权限,以达到SASLSSL用户之间的权限隔离。 本章节主要介绍Kafka实例开启SASLSSL后,如何创建SASLSSL用户。创建用户后,对Topic进行SASLSSL用户授权的操作,请参见设置Topic权限。 一个Kafka实例最多创建20个用户。 前提条件 创建Kafka实例时,已开启SASLSSL功能。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 在“用户管理”页签,单击“创建用户”。 步骤 6 在弹出的“创建用户”对话框中,设置用户名和密码,单击“确定”,完成用户的创建。 SASLSSL用户创建成功后,参考设置Topic权限为SASLSSL用户授权。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        SASL_SSL用户管理
        创建SASL_SSL用户
      • 管理安全报告
        此小节介绍企业主机安全管理安全报告。 若需对已订阅的报告内容进行修改、取消或关闭订阅,该章节将指导您完成相关操作。 约束限制 未开启企业版、旗舰版、网页防篡改版、容器版防护不支持安全报告相关操作。 编辑安全报告 1、登录管理控制台。 2、在页面左上角单击选择“区域”,选择“安全>企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。 说明 切换至新版后,在总览页左上角单击“返回旧版”,可切换至主机安全(旧版)。 4、左侧选择“安全报告”进入安全报告概览页面。服务预设了按月(default monthly security report)和按周(default weekly security report)统计的两个安全报告模板,可直接使用。 5、单击目标报告的“编辑”按钮,对报告进行编辑。 编辑报告 6、对报告基本信息进行编辑,参数说明如表所示。 编辑报告基本信息 报告基本信息参数说明 参数名称 参数说明 取值样例 报告名称 默认的报告名称。 default monthly security report 报告类型 报告的统计周期类型名称,不可编辑。 安全月报 报告发送时间 报告自动发送时间。 报告接收方式 生成的安全报告接收方式。 消息中心:使用消息中心和其它安全服务共同使用“安全事件通知”的信息接收人。需登录控制台,在右上角信箱查看。 消息主题:为HSS单独创建的主题,设置告警通知接收人。可选择短信或邮件通知。 无需发送到邮箱:不发送报告至邮箱。 消息中心 7、确认信息无误,单击页面右下角“下一步”,编辑报告内容。 8、在左侧勾选或取消报告项,右侧可预览,确认无误,单击“保存”,报告修改成功。
        来自:
        帮助文档
        企业主机安全
        用户指南
        安全报告
        管理安全报告
      • 创建消费组
        本章节介绍如何在控制台创建消费组。 如果在“配置参数”中开启了“auto.create.groups.enable”,则该操作为可选。“auto.create.groups.enable”表示在消费者进入未创建的消费组时,会自动创建此消费组。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 步骤 6 单击“创建消费组”,弹出“创建消费组”对话框。 步骤 7 输入消费组名称,单击“确定”。 在消费组列表页面,查看新创建的消费组。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        创建消费组
      • 应用拓扑
        以应用为维度,进行可视化拓扑展示。 功能入口 1. 选择目标资源池,并登录APM组件控制台。 2. 在左侧导航栏中选择「应用监控 」「应用列表」。 3. 在应用列表中选择您想查看的应用,点击「应用名称」打开新的应用详情链接。 4. 在左侧导航栏中选择「应用拓扑」查看相应信息。 功能说明 拓扑图是一种以图形化方式展示应用之间关系的图表,帮助开发人员或运维人员了解应用程序的整体结构和运行状况。 信息 拓扑图通常包括以下信息: 应用或服务的组成部分:例如数据库、缓存、消息队列、Web 服务器等,当前版本支持的插件见下表,暂未支持的插件会显示为unknown。 类别 支持的服务 其他基础服务 JavaMethod 其他基础服务 Netty 数据库 Mysql 数据库 ClickHouse 数据库 EsRestClient 数据库 MongoDb 缓存 Redis 缓存 Jedis 缓存 Lettuce 消息 KafkaConsumer 消息 KafkaProducer 消息 RabbitMqConsumer 消息 RabbitMqProducer Web容器 Tomcat 外部调用 HttpClient 组件之间的依赖关系:例如一个组件调用另一个组件的接口等,包含各项基础指标 指标名 说明 客户端 显示当前链路的客户端名称。 服务端 显示当前链路的服务端名称。 请求总量 显示当前链路在筛选时间段内的请求次数。 吞吐量 显示当前链路在筛选时间段内平均每分钟的请求量。 平均响应时间 显示当前链路在筛选时间段内所有请求的平均响应时间。 错误数 显示当前链路在筛选时间段内请求错误次数。 错误率 显示当前链路在筛选时间段内请求错误率,即:错误数/请求总量。 通过分析拓扑图,开发/运维人员可以快速定位应用中的问题,并进行及时的排查和修复。拓扑图还可以帮助开发/运维人员进行容量规划和性能优化,以提高应用程序或服务的性能和可靠性。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        应用拓扑
      • 修改配置参数
        操作场景 天翼云分布式消息服务Kafka为实例、主题、消费组的几个常用配置提供了默认值,在实例开通时默认配置,并支持在控制台手动修改,您可以根据具体的业务需求,自行修改。这几种常用的配置参数,根据是否需要重启Kafka实例,可以分为动态参数和静态参数: 动态参数:修改成功后,无需重启实例,立即生效 静态参数:修改成功后,只有重启实例才能生效 自定义参数 使用限制 已开通天翼云Kafka集群版实例,实例的运行状态为“运行中”。 单机版不支持修改配置参数。 操作步骤 1. 登陆管理控制台 2. 进入Kafka管理控制台 3. 在实例列表页的操作列,目标实例行点击“管理” 4. 点击“配置参数”,在待修改参数所在行,单击“编辑”,修改配置参数。 5. 单击“保存”,完成参数的修改。 参数说明 动态参数 参数 参数说明 参数范围 默认值 log.flush.interval.messages 消息条数刷盘阈值,当实例 broker 接收的消息条数达到阈值时,将触发消息刷盘 1~9223372036854775807 9223372036854775807 min.insync.replicas 当 producer 将 acks 设置为 “all” (或“1”) 时,此配置指定必须确认写入才能被认为成功的副本的最小数量 1~3 1 message.max.bytes kafka 允许的 topic 最大单条消息大小(单位:字节) 0~10485760 10485760 max.connections.per.ip 每个 ip 允许的最大连接数。超过此连接数的连接请求将被丢弃 100~20000 1000 unclean.leader.election.enable 是否能够使不在 ISR 中 replicas 设置用来作为 leader true,false false
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        修改配置参数
      • 制作并替换证书
        步骤二:替换证书 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择与您的应用服务相同的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击待替换证书的实例名称,进入实例详情页面。 步骤 5 在“连接信息 > SSL证书”后,单击“替换”,弹出“替换SSL证书”对话框。 图 连接信息 步骤 6 参考下表,设置替换SSL证书的参数。 图 替换SSL证书 表 替换SSL证书参数说明 参数名称 说明 Key密码 输入制作证书中设置的keystore密码 Keystore密码 输入制作证书中设置的keystore密码 Keystore文件 导入“server.keystore.jks”证书 Truststore密码 输入服务端证书的Truststore密码 Truststore文件 导入“server.truststore.jks”证书 步骤 7 单击“确定”,弹出“替换SSL证书”对话框。 步骤 8 单击“确认”,完成证书的替换。 在“后台任务管理”页签,替换SSL证书任务的“状态”为“成功”时,表示替换证书成功。 说明 证书替换成功后,在实例详情页单击“下载”,下载的证书为分布式消息服务Kafka提供的证书,并非您自己制作的证书。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        制作并替换证书
      • 服务内联委托
        可信云服务可以通过IAM委托的方式访问其他云服务的资源。可信实体为天翼云服务的IAM委托,包括普通云服务委托和云服务关联委托。本文介绍函数计算的服务内联委托。 什么是服务内联委托 在某些场景下,函数计算为了完成自身的某个功能,需要获取其他云服务的访问权限,因此,函数计算创建了与云服务内联委托,即服务内联委托CtyunServiceDelegateRoleForFC。函数计算支持CtyunServiceDelegateRoleForFC和FaaS函数的绑定,实现最小授权范围内授予函数访问其他云服务的权限。 使用函数计算时,系统提供的服务内联委托及其包含的系统权限策略如下: 服务内联委托:CtyunServiceDelegateRoleForFC 系统权限策略:CtyunServiceInlineDelegateRolePolicyForFC CtyunServiceDelegateRoleForFC 服务内联委托CtyunServiceDelegateRoleForFC可以获取访函数列表、函数详情、创建函数、删除函数、更新函数以及调用函数的权限。 服务内联委托CtyunServiceDelegateRoleForFC被授予权限策略CtyunServiceInlineDelegateRolePolicyForFC,该权限策略的内容如下。 json { "Version": "1", "Statement": [ { "Action": [ "cf:inst:CreateFunction", "cf:inst:UpdateFunction", "cf:inst:ListFunction", "cf:inst:GetFunction", "cf:inst:InvokeFunction", "cf:inst:DeleteFunction" ], "Resource": "", "Effect": "Allow" } ] } 以下是使用函数计算时,需要创建和使用服务内联委托的场景: 为函数计算配置专有网络VPC、交换机或弹性网卡等,提升数据安全性,实现VPC内的网络互通。 访问容器镜像仓库拉取镜像创建容器镜像函数,能够利用容器镜像资源灵活部署函数。 配置消息队列或事件总线等消息服务的访问权限,使用函数计算监听消息源的事件。当有新的消息或事件产生时,可以直接触发函数执行,实现事件驱动的计算模型。 配置日志服务相关权限,允许自动收集函数执行日志,便于日志的搜索、分析和可视化展示,帮助用户快速定位问题。
        来自:
        帮助文档
        函数计算
        安全与合规
        IAM访问控制
        服务内联委托
      • 创建Topic
        本文主要介绍 创建Topic。 Topic,即消息主题。创建Kafka实例成功后,如果没有开启“Kafka自动创建Topic”,需要手动创建Topic,然后才能进行生产消息和消费消息。如果实例开启了“Kafka自动创建Topic”,则该操作为可选。 “Kafka自动创建Topic”表示在生产或消费一个未创建的Topic时,会自动创建此Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。如果在“配置参数”中修改“log.retention.hours”、“default.replication.factor”或“num.partitions”的参数值,此后自动创建的Topic参数值为修改后的参数值。例如:“num.partitions”修改为“5”,自动创建的Topic参数值如下:分区数为5,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 Kafka实例对Topic的总分区数设置了上限, 当Topic的总分区数达到上限后,用户就无法继续创建Topic 。不同规格配置的Topic总分区数不同,具体请参考Kafka产品规格说明。 本文主要介绍手动创建Topic的操作,有以下几种方式,您可以根据实际情况选择任意一种方式: 方式1:在控制台创建 方式2:在Kafka Manager创建 方式3:在Kafka客户端上创建 说明 实例节点出现故障的情况下,单副本Topic查询消息时可能会报“内部服务错误”,因此不建议使用单副本Topic。 方式1:在控制台创建 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,单击“创建Topic”。 弹出“创建Topic”对话框。 图 创建Topic 步骤 6 填写Topic名称和配置信息。 表 Topic参数说明 参考 说明 Topic名称 系统为您自动生成了Topic名称,您可以根据需要修改。 创建Topic后不能修改名称。 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。 该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。 取值范围:1~200 默认值:3 副本数 您可以为每个Topic设置副本的数量,Kafka会自动在每个副本上备份数据,当其中一个Broker故障时数据依然是可用的,副本数越大可靠性越高。 该参数设置为1时,表示只有一份数据。 默认值:3 说明 实例节点出现故障的情况下,单副本Topic查询消息时可能会报“内部服务错误”,因此不建议使用单副本Topic。 老化时间(小时) 消息的最长保留时间,消费者必须在此时间结束前消费消息,否则消息将被删除。删除的消息,无法被消费。 取值范围:1~720 默认值:72 同步复制 指后端收到生产消息请求并复制给所有副本后,才返回客户端。 开启同步复制后,需要在客户端配置acksall或者1,否则无效。 当副本数为1时,不能选择同步复制功能。 同步落盘 同步落盘是指生产的每条消息都会立即写入磁盘。 开启:生产的每条消息都会立即写入磁盘,可靠性更高。 关闭:生产的消息存在内存中,不会立即写入磁盘。 消息时间戳类型 定义消息中的时间戳类型,取值如下: CreateTime:生产者创建消息的时间。 LogAppendTime:broker将消息写入日志的时间。 批处理消息最大值 Kafka允许的最大批处理大小,如果启用消息压缩,则表示压缩后的最大批处理大小。 如果增加“max.message.bytes”的值,且存在消费者版本早于0.10.2,此时消费者的“fetch size”值也必须增加,以便消费者可以获取增加后的批处理大小。 描述 Topic的描述信息。 步骤 7 配置完成后,单击“确定”,完成创建Topic。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        创建Topic
      • 自定义分布式消息服务Kafka事件源
        本文介绍如何在事件总线EventBridge管理控制台添加分布式消息Kafka类型的自定义事件源。 前提条件 事件总线EventBridge 开通事件总线EventBridge并委托授权。 创建自定义总线。 分布式消息服务Kafka 开通分布式消息服务Kafka。 创建实例、主题与消费组。 操作步骤 1. 登录事件总线管理控制台。 2. 在左侧导航栏,单击事件总线。 3. 在事件总线页面,单击目标总线名称。 4. 在左侧导航栏,单击事件源。 5. 在事件源 页面,单击添加事件源。 6. 在添加自定义事件源 面板,输入名称 和描述 ,事件提供方 选择分布式消息服务Kafka,选择实例、主题等配置然后单击确认,详见图1。 图1 添加事件提供方为分布式消息服务Kafka的事件源 参数说明 参数 说明 示例 名称 事件源名。 source1 实例名称 选择前提条件中已创建的分布式消息服务Kafka版实例。 KAFKAxxx Topic 选择当前实例中的Topic。 topic1 Group 快速创建:自动创建以GIDEVENTBRIDGExxx命名的Group ID。 使用已有:选择当前实例中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 消费位点 开始消费的位置。 最新位点:从最新位点开始消费。 最早位点:从最初位点开始消费。 最新位点
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源类型
        自定义分布式消息服务Kafka事件源
      • 购买类
        场景 描述 数据湖 数据湖分析 提供更灵活、可靠、高效的管理集群,更快的运行大数据计算引擎并提供出色的数据分析能力。 数据分析 数据分析 Apache Doris:开源的MPP架构的OLAP分析引擎,支持亚秒级的数据查询和多表join。 云搜索 云搜索 为结构化/非结构化数据提供低成本、高性能及可靠性的检索、分析服务能力。 数据服务 数据服务 提供更灵活、可靠、高效的数据服务集群。 实时数据流 实时数据流 提供流式计算、消息队列等服务,主要用于实时数据ETL和日志采集分析等场景。 自定义 自定义 提供丰富灵活的服务搭配,支持自行选择业务所需服务。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        购买类
      • 分布式消息服务Kafka事件源
        本文介绍如何在事件总线EventBridge管理控制台添加分布式消息服务Kafka作为事件流中的事件提供方。 前提条件 事件总线EventBridge 开通事件总线EventBridge并委托授权。 分布式消息服务Kafka 开通分布式消息服务Kafka。 操作步骤 1. 登录事件总线管理控制台。 2. 在左侧导航栏,单击事件流。 3. 在事件流页面,单击创建事件流。 4. 在事件源(Source) 配置面板,事件提供方 选择分布式消息服务Kafka,选择或填入主题等配置然后单击确认,如图1所示。 图1 创建事件流时选择事件提供方为分布式消息服务Kafka 参数说明 参数 说明 示例 实例名称 选择前提条件中已创建的分布式消息服务Kafka版实例。 KAFKAxxx Topic 选择当前实例中的Topic。 topic1 Group 快速创建:自动创建以GIDEVENTBRIDGExxx命名的Group ID。 使用已有:选择当前实例中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 消费位点 开始消费的位置。 最新位点:从最新位点开始消费。 最早位点:从最初位点开始消费。 最新位点 事件示例 plaintext { "id": "c40c8fe289994177b5aed37466bae2e5", "source": "ctyun:kafka", "specversion": "1.0", "subject": "ctyun:kafka:b342b77ef26b11ecbxxxxxxxc110002:0b3a633836ef4xxxxxx33ab4da:topic:streamsource", "time": "20250206T03:44:55.026774053Z", "datacontenttype": "application/json", "type": "kafka:Topic:SendMessage", "ctyunregion": "b342b77ef26b11ecbxxxxxxxc110002", "ctyunaccountid": "0b3a633836ef4xxxxxx33ab4da", "data": { "offset": 1, "topic": "streamsource", "value": "Hello,Kafka!", "key": "test" } } data字段包含的参数解释如下表所示: 参数 类型 示例值 描述 topic String source1 Topic名称。 offset Integer 1 消费位点。 key String test 消息Key值。 value Object Hello,Kafka! 消息体,默认以JSON格式编码。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件源
        分布式消息服务Kafka事件源
      • 创建Topic
        场景描述 RocketMQ的Topic是消息的逻辑分类单位,用于将消息进行分组和管理。创建Topic的场景可以根据具体业务需求来确定,以下是一些常见的场景描述: 消息发布与订阅:当需要实现消息发布与订阅模式时,可以创建一个主题来管理相关的消息。发布者可以将消息发送到该主题,而订阅者可以订阅该主题以接收感兴趣的消息。 事件驱动架构:在事件驱动的架构中,不同的模块之间通过事件进行通信。每个事件可以对应一个主题,模块可以将事件发送到相应的主题,其他模块可以订阅该主题以接收事件通知。 日志收集与分析:当需要收集大量的日志数据并进行分析时,可以创建一个主题来管理日志消息。日志产生者可以将日志消息发送到该主题,而日志消费者可以订阅该主题以进行实时分析或存储。 异步处理:当需要将某些操作异步处理时,可以创建一个主题来管理相关的异步消息。操作发起者可以将异步消息发送到该主题,而异步处理器可以订阅该主题以进行后续的异步处理。 分布式事务消息:在分布式系统中,当需要实现分布式事务消息时,可以创建一个主题来管理相关的事务消息。事务发起者可以将事务消息发送到该主题,而事务消费者可以订阅该主题以进行事务的处理和确认。 总的来说,创建主题的场景可以根据具体的业务需求来确定。主题可以帮助将消息进行逻辑分类和管理,实现不同的消息传递模式和业务场景 新建Topic 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【创建Topic】按钮 5、 在弹出的创建Topic页面,填写如下字段信息 1)默认展示当前集群名称,不可修改。 2)选择Topic所在的Broker,按照实例创建时候选择的主备节点对数列出每个broker,可复选。 3)填写Topic名称,名字限制2到64个字符,超过限制会导致创建Topic失败,用户创建Topic只能包含大小写字母数字以及和符号。 4)按照实际需求填写Topic备注。 5)填写每个Broker分区数,分区数必须大于0,小于等于8,创建严格顺序队列时,设置分区数为1,且只能选择一个broker。 6)选择生产模式,RocketMQ是一个开源的分布式消息中间件,它支持两种消息生产模式:有序和无序。 有序消息生产模式(Ordered Message)是指按照特定规则将消息发送到相同的Message Queue中,并且确保消息在消费者端按照相同的顺序进行消费。这种模式适用于那些需要严格按照消息顺序进行处理的场景,比如订单处理、流程审批等。 无序消息生产模式(Unordered Message)是指消息发送到不同的Message Queue中,每个Queue都是独立的。消费者可以并行地从多个Queue中消费消息,而无需关心消息的顺序。这种模式适用于那些不需要严格按照消息顺序处理的场景,比如日志收集、异步通知等。 需要注意的是,无论是有序还是无序消息生产模式,RocketMQ都提供了高可靠性的消息传输和存储,并支持水平扩展和高吞吐量的特性。根据具体的业务需求,选择适合的消息生产模式能够更好地满足应用的要求。 7)选择Topic的读写权限,支持读写、只读、只写3类权限。 6、 完成Topic信息填写后,保存确认即可新增主题。 7、 若希望批量创建Topic,可点击【导入Topic】按钮 导入Topic 注意:输入的Topic名不要带空格等特殊字符。 通过上传csv文件,批量创建主题。格式:点击【下载模板】按钮下载。 Topic模板 批量上传Topic的模板,必须使用模板,才能够上传成功,模板格式如下: TopicName QueueNums Perm MessageType Topic1 4 6 NORMAL Topic2 1 6 FIFO Topic3 4 6 DELAY Topic4 4 6 TRANSACTION
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        创建Topic
      • GPU加速/AI加速云主机
        昇腾计算加速型 PAK3型云主机 PAK3型昇腾计算加速型采用Huawei 昇腾910B2 NPU,属于计算加速型大类,采用硬件直通技术,配备KunPeng920 5250处理器,没有进行资源超配,实例间无CPU/NPU争抢。在提供云主机灵活性的同时,提供高性能AI计算能力和卓越能效比,单卡内存64GB、显存带宽392GB/s、FP16算力313 TFLOPS,同时支持一机多卡,实现计算性能线性倍增。 规格名称 CPU 内存 AI加速卡类型 显存 最大带宽/基准带宽(Gbit/s) 网络收发包(万PPS) 多队列 pak3.4xlarge.8 16 128 Huawei 昇腾910B2 164G 17.5/5.5 100 8 支持的镜像 CTyunOS 23.01 64 位 ARM 版昇腾 25.2.0 专用 银河麒麟高级服务器操作系统 V10 SP3 64 位 ARM 版昇腾 25.2.0 专用 openEuler 22.03 SP2 64 位 ARM 版昇腾 25.2.0 专用 PAK2型云主机 PAK2型昇腾计算加速型采用Atlas 300I Duo NPU,属于计算加速型大类,采用硬件直通技术,配备KunPeng920 7260处理器,没有进行资源超配,实例间无CPU/NPU争抢。在提供云主机灵活性的同时,提供高性能AI计算能力和卓越能效比,单卡内存96GB、显存带宽408GB/s、FP16算力140 TFLOPS,同时支持一机多卡,实现计算性能线性倍增。 规格名称 CPU 内存 AI加速卡类型 显存 最大带宽/基准带宽(Gbit/s) 网络收发包(万PPS) 多队列 pak2.4xlarge.8 16 128 Huawei Atlas 300I duo 196G 24/8 220 8 pak2.4xlarge.9 16 144 Huawei Atlas 300I duo 196G 24/8 220 8
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品规格
        GPU加速/AI加速云主机
      • 目标Kafka高级配置
        本节为您介绍数据库迁移工具目标库高级配置。 batch.size 用于指定缓冲区一批数据最大值 linger.ms 指定如果数据迟迟未达到 batch.size,等待linger.time之后就会发送数据 buffer.memory RecordAccumulator 缓冲区总大小 acks 0:生产者发送过来的数据,不需要等数据落盘应答 1:生产者发送过来的数据,Leader收到数据后应答 1(all):生产者发送过来的数据,Leader+和 isr 队列里面的所有节点收齐数据后应答 max.in.flight.requests.per.connection 允许最多没有返回 ack 的次数,默认为 5,开启幂等性要保证该值是 15 的数字 retry.backoff.ms 当消息发送出现错误的时候,系统会重发消息的重试次数 compression.type 生产者发送的所有数据的压缩方式 partition 指定kafka分区
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据同步
        数据订阅
        任务创建
        目标Kafka高级配置
      • 查询消费组信息
        查看消费者列表(Kafka客户端) 未开启SASL的Kafka实例,在“/{命令行工具所在目录}/kafka{version}/bin/”目录下,通过以下命令查询消费者列表。 ./kafkaconsumergroups.sh bootstrapserver {brokerip}:{port} group {groupname} members describe 已开启SASL的Kafka实例,通过以下步骤查询消费者列表。 (可选)如果已经设置了SSL证书配置,请跳过此步骤。否则请执行以下操作。在Kafka客户端的“/config”目录中创建“ssluserconfig.properties”文件,参考步骤3增加SSL证书配置。 在“/{命令行工具所在目录}/kafka{version}/bin/”目录下,通过以下命令查询消费者列表。 ./kafkaconsumergroups.sh bootstrapserver {brokerip}:{port} group {groupname} members describe commandconfig ./config/ssluserconfig.properties 查看消费进度(控制台) 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 步骤 6 单击待查看消费进度的消费组名称,进入消费组详情页。 步骤 7 在“消费进度”页签,查看此消费组订阅的Topic列表、Topic中消息的总堆积数、Topic每个分区的堆积数、Topic每个分区的偏移量和最大消息位置。 图 消费进度 步骤 8 (可选)如果需要查询某个Topic的消费进度,在搜索框中,输入Topic名称,单击。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        查询消费组信息
      • 产品计费
        计费项 分布式消息服务MQTT的计费项由实例费用组成,具体费用详情见下文实例规格单价。 计费项 含义 适用的计费模式 实例费用 用户选择的选择的实例规格计费,具体请参见产品规格。 按需/包周期 说明 分布式消息服务MQTT如下资源池支持X86计算CPU架构类型的计算增强型主机,提供集群和单机两种规格实例,集群版可选39代理数量。 目前在 华东1、长沙42、华南2、武汉41、西南1、华北2、呼和浩特3、太原4 资源池开放订购。 上述资源池订购和续订可享受1年83折,2年7折,3年5折优惠。 价格计算公式 分布式消息服务MQTT实例费用单价如下表所示,计费公式为: 实例费用实例规格单价 代理数量,单机版代理数量为1。 实例规格单价 Intel计算增强型 规格名称 实例单价(单个节点) 规格名称 按需标准价格(元/小时) 包月标准价格(元/月) mqtt.2u4g.cluster 0.98 441 mqtt.4u8g.cluster 2.24 1008 mqtt.8u16g.cluster 4.86 2187 mqtt.12u24g.cluster 7.38 3321 mqtt.16u32g.cluster 9 4050
        来自:
        帮助文档
        分布式消息服务MQTT
        计费说明
        产品计费
      • 删除实例
        本文主要介绍删除实例。 操作场景 分布式消息服务Kafka管理控制台支持删除Kafka实例,且可实现批量删除Kafka实例、一键式删除创建失败的Kafka实例、单个删除创建失败的实例记录。 说明 Kafka实例删除后,实例中原有的数据将被删除,且没有备份,请谨慎操作。 前提条件 Kafka实例状态为运行中、故障、已冻结的按需付费实例才能执行删除操作。 包年/包月类型的Kafka实例,不支持进行删除和批量删除操作。若不再使用,可单击“操作”栏下的“更多 > 退订”进行退订。 删除Kafka实例 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,删除Kafka实例。 勾选Kafka实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“更多 > 删除”。 在待删除Kafka实例所在行,单击“更多 > 删除”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 删除”。 说明 Kafka实例状态为创建中、启动中、变更中、变更失败、重启中时不允许执行删除操作。 步骤 5 在“删除实例”对话框中,单击“是”,完成删除Kafka实例。 删除Kafka实例大约需要1到60秒。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        删除实例
      • 天翼云AOne应用权限申请与使用情况说明
        权限名称 权限说明 具体场景或目的 INTERNET 允许应用访问网络 用于优化服务过程中的网络质量,wifi/4g网络切换状态下的网络服务保障。 ACCESSNETWORKSTATE 检测网络连接状态 用于优化服务过程中的网络质量,wifi/4g网络切换状态下的网络服务保障。 ACCESSWIFISTATE 获取WIFI连接状态 用于优化服务过程中的网络质量,wifi/4g网络切换状态下的网络服务保障。 REQUESTINSTALLPACKAGES 允许进行应用安装 用于更新应用,检测用户是否具备使用产品功能的条件,优化体验。 REQUESTIGNOREBATTERYOPTIMIZATIONS 忽略电池优化 允许VPN服务能够在后台运行服务(国内手机系统可能无法生效,需要用户到设置中手动开启,不同机型出来的权限蒙版不一样,有一些机型因为不需要用户确认没有弹出蒙版)。 MODIFYAUDIOSETTINGS 修改音频设置 会议服务:设置音频模式。 RECORDAUDIO 录制音频 AI应用中心:以语音的方式与AI进行交互、语音输入,收集语音信息(语音转文本信息) 音视频会议:发言、传输音视频流。 CAMERA 拍摄照片和视频 AI应用中心:拍摄图片,收集图片信息 消息服务:使用摄像头拍照发送图片或视频 音视频会议:开启视频、设置虚拟背景 邮件服务:使用摄像头拍摄照片 消息服务:使用摄像头拍摄照片 个人信息:拍照上传头像。 WAKELOCK 唤醒设备 保持设备唤醒状态。 WRITEEXTERNALSTORAGE 写入外部存储 日程服务:在日程中添加文件 消息服务:发送照片、文件 邮件服务:上传附件、保存邮件附件至本地、从本地选择文件插入邮件 APP更新:在设备上存储数据 消息服务:下载文件,保存图片。 READEXTERNALSTORAGE 读取外部存储 日程服务:在日程中添加文件 消息服务:发送照片、文件 邮件服务:上传附件、保存邮件附件至本地、从本地选择文件插入邮件 消息服务:发送图片、发送文件。 MANAGEEXTERNALSTORAGE 管理所有外部存储 文件管理增强(android10以上版本申请,权限等同于WRITEEXTERNALSTORAGE 和READEXTERNALSTORAGE)。 READMEDIAIMAGES 读取媒体图片 消息服务:从相册选择图片发送 AI应用中心:从相册上传照片 邮件服务:从相册选择图片插入邮件。 USEBIOMETRICUSEFINGERPRINT 生物识别/指纹 使用生物识别/指纹进行登录。 BLUETOOTHBLUETOOTHADMIN BLUETOOTHCONNECT 蓝牙权限 会议中使用蓝牙设备。
        来自:
        帮助文档
        边缘安全加速平台
        相关协议
        天翼云AOne应用权限申请与使用情况说明
      • 1
      • ...
      • 10
      • 11
      • 12
      • 13
      • 14
      • ...
      • 241
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      弹性高性能计算 E-HPC

      公共算力服务

      科研助手

      一站式智算服务平台

      智算一体机

      推荐文档

      术语解释

      充值预付款能否开具发票?

      计费类

      云课堂 第十七课:天翼云在线语音合成AI云服务测试Demo

      安装控制

      基本信息

      重置密码

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号