云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RocketMQ版_相关内容
      • 删除资源池
        本章节主要介绍翼MapReduce的删除资源池操作。 操作场景 根据业务需要,资源池不再使用时,管理员可以通过FusionInsight Manager进行删除资源池。 前提条件 集群中任何一个队列不能使用待删除资源池为默认资源池,删除资源池前需要先取消默认资源池,请参见配置队列。 集群中任何一个队列不能在待删除资源池中配置过资源分布策略,删除资源池前需要先清除策略,请参见清除队列容量配置。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“租户资源 > 资源池”。 3. 在资源池列表指定资源池所在行的“操作”列,单击“删除”。 4. 在弹出窗口中单击“确定”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        管理资源
        删除资源池
      • KafkaProducer监控
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 topic (topic,kafka的topic监控数据。) id id clientid和ip信息 ENUM LAST topic (topic,kafka的topic监控数据。) topic topic kafka的topic名称 ENUM LAST topic (topic,kafka的topic监控数据。) byteRate 每秒发送字节 每秒发送字节 Byte INT AVG topic (topic,kafka的topic监控数据。) recordErrorRate 每秒错误数 每秒错误数 INT AVG topic (topic,kafka的topic监控数据。) recordRetryRate 每秒重试数 每秒重试数 INT AVG topic (topic,kafka的topic监控数据。) recordSendRate 每秒发送数 每秒发送数 INT AVG topic (topic,kafka的topic监控数据。) seqIds Producer生成序列号 Producer生成序列号 STRING LAST topic (topic,kafka的topic监控数据。) recordSendTotal 总发送次数 总发送次数 INT SUM topic (topic,kafka的topic监控数据。) byteTotal 总发送字节数 总发送字节数 INT SUM KafkaProducer汇总(total,KafkaProducer汇总信息统计。) recordSendTotal 总发送次数 总发送次数 INT SUM KafkaProducer汇总(total,KafkaProducer汇总信息统计。) byteTotal 总发送字节数 总发送字节数 INT SUM 异常 (exception,kafka发送异常信息。) causeType 异常发生类 异常发生类 ENUM LAST 异常 (exception,kafka发送异常信息。) exceptionType 异常类 异常类 ENUM LAST 异常 (exception,kafka发送异常信息。) count 数量 异常数量 INT SUM 异常 (exception,kafka发送异常信息。) message 异常消息 异常消息 STRING LAST 异常 (exception,kafka发送异常信息。) stackTrace 异常堆栈 异常堆栈 CLOB LAST 发送方法(doSendMethod,发送消息方法监控。) topic topic topic ENUM LAST 发送方法(doSendMethod,发送消息方法监控。) concurrentMax 最大并发 最大并发 INT MAX 发送方法(doSendMethod,发送消息方法监控。) errorCount 错误数 错误数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) invokeCount 调用次数 调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) maxTime 最慢时延 最慢时延 INT MAX 发送方法(doSendMethod,发送消息方法监控。) range1 0–10ms 时延在010ms范围调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) range2 10–100ms 时延在10–100ms范围调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) range3 100–500ms 时延在100–500ms范围调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) range4 500–1000ms 时延在500–1000ms范围调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) range5 1–10s 时延在1–10s范围调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) range6 10sn 时延在10s以上调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) totalTime 总时延 调用总耗时 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        消息队列
        KafkaProducer监控
      • 概述
        本指南主要介绍RabbitMQ实例连接信息的收集,如获取RabbitMQ实例连接地址与端口、访问实例的用户名和密码,然后提供Python语言和Spring Boot的连接示例。 RabbitMQ实例完全兼容开源RabbitMQ协议,Python以外的语言,请参考RabbitMQ官网提供的不同语言的连接和使用向导。 开源SDK列表 分布式消息服务RabbitMQ版支持所有开源版本的SDK,常见的开源SDK如下表所示。 开源SDK列表 编程语言 SDK :: Java rabbitmqjavaclient Spring Framework SpringAMQP .Net rabbitmqdotnetclient Python pika PHP phpamqplib C rabbitmqc Go amqp091go 客户端可以通过以下方式访问RabbitMQ实例: 1. VPC内子网地址访问 如果客户端与RabbitMQ实例处于同region同VPC,则可以直接访问RabbitMQ实例提供的VPC内子网地址。 2. VPC对等连接方式访问 如果客户端与RabbitMQ实例处于相同region但不同VPC,则可以通过建立VPC对等连接后,访问RabbitMQ实例提供的VPC内子网地址。 关于创建和使用VPC对等连接,可参考对等连接。 3. 公网访问 客户端在其他网络环境,或者与RabbitMQ实例处于不同region,则访问实例的公网地址。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        开发指南
        概述
      • 修改Topic
        参数 参数说明 分区数 您可以设置Topic的分区数,分区数越大消费的并发度越大。该参数设置为1时,消费消息时会按照先入先出的顺序进行消费。取值范围:1100,默认值:6 分区容量 每个分区的数据量的最大值,超过这个值后前面生产的消息将会被删除,保证了数据不会无限上涨挤爆磁盘。 是否同步刷盘 同步刷盘即确保消息被写入磁盘才会被认定为生产成功,该参数可提高可靠性,但是会影响性能。 消息保留时长 当消息生存时间超过该时长后,将会被清理,可用于控制存储成本。 最小同步副本数 该参数使得消息必须写入设定值个数的副本后,才能被认定生产成功,该参数可提高可靠性,但是过大会影响性能,且必须不大于副本数。 批处理消息最大值 每个批次中最大允许的消息大小,这影响了每次请求中能包含的消息总量和大小。 消息时间戳类型 CreateTime: 这是消息被生产者发送到Kafka时的时间戳,它表示消息创建的实际时间;LogAppendTime: 这是消息被Kafka日志接收并写入到日志文件时的时间戳,它表示消息写入 Kafka 的实际时间。 描述 topic的描述字段,可用作标记和说明。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic
      • 配置作业消息通知
        本章节主要介绍如何配置作业消息通知。 MRS联合消息通知服务(SMN),采用主题订阅模型,提供一对多的消息订阅以及通知功能,能够实现一站式集成多种推送通知方式(短信和邮件通知)。通过配置作业消息通知可以实现您在作业执行成功或作业执行失败时能立即接收到通知。 操作步骤 1.登录管理控制台。 2.单击“服务列表”选择“管理与监管 > 消息通知服务”,进入消息通知服务页面。 3.创建主题并向主题中添加订阅,具体请参考配置消息通知。 4.进入MRS管理控制台,单击集群名称进入集群详情页面。 5.选择“告警管理 > 消息订阅规则 > 添加消息订阅规则”。 6.配置向订阅者发送作业执行结果消息的规则。 消息订阅规则参数说明 参数 说明 规则名称 用户自定义发送订阅消息的规则名称,只能包含数字、英文字符、中划线和下划线。 提醒通知 选择开启,将向订阅者发送对应订阅消息。 主题名称 选择已创建的主题,也可以单击“创建主题”重新创建。 消息类型 选择“事件”。 订阅规则 1. 单击“提示”前的。 2. 单击“Manager”前的。 3. 勾选“作业执行成功”和“作业执行失败”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        配置作业消息通知
      • DLI Spark
        参数 是否必选 说明 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 DLI队列 是 下拉选择需要使用的队列。 作业特性 否 选择自定义镜像和对应版本。仅当DLI队列为容器化队列类型时,出现本参数。自定义镜像是DLI的特性。用户可以依赖DLI提供的Spark或者Flink基础镜像,使用Dockerfile将作业运行需要的依赖(文件、jar包或者软件)打包到镜像中,生成自己的自定义镜像,然后将镜像发布到SWR(容器镜像服务)中,最后在此选择自己生成的镜像,运行作业。自定义镜像可以改变Spark作业和Flink作业的容器运行环境。用户可以将一些私有能力内置到自定义镜像中,从而增强作业的功能、性能。。 作业名称 是 填写DLI Spark作业的名称,只能包含英文字母、数字、“”,且长度为1~64个字符。默认与节点的名称一致。 作业运行资源 否 选择作业运行的资源规格: 8核32G内存 16核64G内存 32核128G内存 作业主类 是 Spark作业的主类名称。当应用程序类型为“.jar”时,主类名称不能为空。 Spark程序资源包 是 运行spark作业依赖的jars。可以输入jar包名称,也可以输入对应jar包文件的的OBS路径,格式为:obs://桶名/文件夹路径名/包名。在选择资源包之前,您需要先将Jar包及其依赖包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考 资源类型 是 支持OBS路径和DLI程序包两种类型的资源。 OBS路径:作业执行时,不会上传资源包文件到DLI资源管理,文件的OBS路径会作为启动作业消息体的一部分,推荐使用该方式。 DLI程序包:作业执行前,会将资源包文件上传到 DLI资源管理。 分组设置 否 当“资源类型”选择了“DLI程序包”时,需要设置。可选择“已有分组”,“创建新分组”或“不分组”。 分组名称 否 当“资源类型”选择了“DLI程序包”时,需要设置。 选择“已有分组”:可选择已有的分组。 选择“创建新分组”:可输入自定义的组名称。 选择“不分组”:不需要选择或输入组名称。 主类入口参数 否 用户自定义参数,多个参数请以Enter键分隔。应用程序参数支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量key为batchnum,可以使用{{batchnum}},在提交作业之后进行变量替换。 Spark作业运行参数 否 以“key/value”的形式设置提交Spark作业的属性,多个参数以Enter键分隔。具体参数请参见Spark Configuration。 Spark参数value支持全局变量替换。 例如,在“全局配置”>“全局变量”中新增全局变量key为customclass,可以使用"spark.sql.catalog"{{customclass}},在提交作业之后进行变量替换。 说明 Spark作业不支持自定义设置jvm垃圾回收算法。 Module名称 否 DLI系统提供的用于执行跨源作业的依赖模块,访问各个不同的服务,选择不同的模块: CloudTable/MRS HBase: sys.datasource.hbase DDS:sys.datasource.mongo CloudTable/MRS OpenTSDB: sys.datasource.opentsdb DWS: sys.datasource.dws RDS MySQL: sys.datasource.rds RDS PostGre: sys.datasource.rds DCS: sys.datasource.redis CSS: sys.datasource.css DLI内部相关模块: sys.res.dliv2 sys.res.dli sys.datasource.dliinnertable 访问元数据 是 是否通过Spark作业访问元数据。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        DLI Spark
      • 推送策略
        参数名 解释说明 策略名 推送策略的名字,也是管理相关策略的索引。 描述 对当前策略进行备注。 推送方式 邮件推送、短信推送。目前仅支持短信推送。 推送时段 全天、时间段,客户根据自身的业务需要,选择特定时间段接收消息。 推送频率 系统预置半小时、1小时、2小时、4小时、8小时、24小时。 消息类型 设备消息、平台事件消息、AI消息。 子类型 设备消息:设备离线、流离线、录制失败。 平台事件消息:设备离线。 AI消息:展示AI应用的列表信息。 消息内容 邮件、短信接收到的文案信息。 生效资源 支持用户选择目录及独立设备。 推送对象 支持用户选择用户组或具体子用户。
        来自:
        帮助文档
        智能视图服务
        用户指南
        消息推送
        推送策略
      • 通信协议
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 异常(exception,Websocket的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,Websocket的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常(exception,Websocket的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常(exception,Websocket的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常(exception,Websocket的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST websocket消息监控(message,websocket消息处理信息。) url url websocket对应的url ENUM LAST websocket消息监控(message,websocket消息处理信息。) errorCount 错误次数 消息处理错误次数 INT SUM websocket消息监控(message,websocket消息处理信息。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST websocket消息监控(message,websocket消息处理信息。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST websocket消息监控(message,websocket消息处理信息。) invokeCount 调用次数 消息处理方法调用次数 INT SUM websocket消息监控(message,websocket消息处理信息。) traffic 流量 流量 INT SUM websocket消息监控(message,websocket消息处理信息。) createSessionCount 创建连接数 创建连接数 INT SUM websocket消息监控(message,websocket消息处理信息。) closeSessionCount 关闭连接数 关闭连接数 INT SUM websocket消息监控(message,websocket消息处理信息。) closeReason 关闭原因 连接关闭的原因 STRING LAST websocket消息监控(message,websocket消息处理信息。) maxTime 最大响应时间 最大响应时间 INT MAX websocket消息监控(message,websocket消息处理信息。) totalTime 总响应时间 总响应时间 INT SUM websocket消息监控(message,websocket消息处理信息。) range1 010ms 响应时间在010ms范围请求数 INT SUM websocket消息监控(message,websocket消息处理信息。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM websocket消息监控(message,websocket消息处理信息。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM websocket消息监控(message,websocket消息处理信息。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM websocket消息监控(message,websocket消息处理信息。) range5 110s 响应时间在110s范围请求数 INT SUM websocket消息监控(message,websocket消息处理信息。) range6 10s以上 响应时间在10s以上请求数 INT SUM Websocket汇总(total,汇总信息统计。) errorCount 错误次数 总的错误次数 INT SUM Websocket汇总(total,汇总信息统计。) invokeCount 调用次数 总的调用次数 INT SUM Websocket汇总(total,汇总信息统计。) createSessionCount 创建连接数 创建连接数 INT SUM Websocket汇总(total,汇总信息统计。) closeSessionCount 关闭连接数 关闭连接数 INT SUM Websocket汇总(total,汇总信息统计。) traffic 流量 流量 INT SUM Websocket汇总(total,汇总信息统计。) totalTime 总响应时间 总响应时间 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        通信协议
      • 创建vLLM NPU单机PD分离任务(1)
        本节介绍如何 创建vLLM NPU单机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择 静态PD分离 推理类型选择 单机 配置信息 推理框架,框架版本,推理模型,模型版本根据实际情况选择。 简单的示例: 推理框架: ascendvllm 框架版本:v0.11.0rc2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列 Prefill CPU,内存,共享内存不填,NPU填:4 Decode DecodeMaster 的资源菜单:CPU,内存,共享内存不填,NPU填:4 点击确认完成创建。
        来自:
      • 基于事件流实现Kafka消息路由
        步骤二:测试验证 1. 登录分布式消息服务Kafka管理控制台。 2. 在左侧导航栏,单击实例列表,选择事件流的源实例。 3. 在主题管理页面,选择源的目标主题,操作列点击更多 ,然后点击生产消息。 4. 在生产消息对话框输入想要发送的消息,然后点击发送消息。 5. 发送消息后返回实例列表,选择事件流的目标实例,进入管理。 6. 在消息查询页面,选择目标实例的目标主题,然后按时间查询,查询最近收到的消息。 7. 查看查询到的Key和Value值是否与生产的消息一致,详见图2。 图2 在分布式消息服务Kafka管理控制台查看消息详情
        来自:
        帮助文档
        事件总线
        最佳实践
        基于事件流实现消息路由
        基于事件流实现Kafka消息路由
      • ZooKeeper的使用场景和MSE ZooKeeper的优势
        本章节介绍ZooKeeper常用的技术应用场景以及优势 ZooKeeper 常用的技术应用场景如下所述。 场景一:分布式协调 分布式锁 :在分布式环境中,程序都在独立的节点上,分布式锁是控制分布式系统之间同步访问共享资源的一种方式,分布式锁主要有如下2种类型: 独占锁:主要实现原理是利用ZooKeeper在一个具体路径下每个进程创建一个有序的临时节点,每个进程会判断自己的节点是否序号最小的节点,如果是则获得锁,如果不是则创建一个监听等待前一个序号小的临时节点释放锁。 共享锁:共享锁可以支持多个进程同时获取这把锁进行读操作,但是如果某个进程要获取写操作的权限,那么在写操作之前是没有读操作的数据,并且该进程是第一个获取到写操作类型锁的。 分布式队列 :队列功能可以利用ZooKeeper的有序节点,实现先进先出(First Input First Output,简称FIFO)的分布式队列,即先进入队列的先被消费,后加入队列的后被消费。在创建znode时开启sequence 和 ephemeral模式,则被创建的节点结尾是一个递增的值,且不会重复。 场景二:配置中心 运用ZooKeeper的存储模式,实现配置信息的集中管理和数据的动态更新,保证了配置数据的一致性和实时性。
        来自:
        帮助文档
        微服务引擎
        用户指南
        注册配置中心
        ZooKeeper
        ZooKeeper的使用场景和MSE ZooKeeper的优势
      • 多租户
        保证数据安全和访问安全 多租户场景下,分开存放不同租户的数据,以保证数据安全;控制用户对租户资源的访问权限,以保证访问安全。 调度器增强 多租户根据调度器类型分为开源的Capacity调度器和自主研发的增强型Superior调度器。为满足企业需求,克服Yarn社区在调度上遇到的挑战与困难,自主研发的Superior调度器,不仅集合了当前Capacity调度器与Fair调度器的优点,还做了以下增强: 增强资源共享策略 Superior调度器支持队列层级,在同集群集成开源调度器的特性,并基于可配置策略进一步共享资源。针对实例,管理员可通过Superior调度器为队列同时配置绝对值或百分比的资源策略计划。Superior调度器的资源共享策略将YARN的标签调度增强为资源池特性,YARN集群中的节点可根据容量或业务类型不同,进行分组以使队列更有效地利用资源。 基于租户的资源预留策略 部分租户可能在某些时间中运行关键任务,租户所需的资源应保证可用。Superior调度器构建了支持资源预留策略的机制,在这些租户队列运行的任务可立即获取到预留资源,以保证计划的关键任务可正常执行。 租户和资源池的用户公平共享 Superior调度器提供了队列内用户间共享资源的配置能力。每个租户中可能存在不同权重的用户,高权重用户可能需要更多共享资源。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        功能特性
        多租户
      • 配置消息通知
        向主题添加订阅 要接收发布至主题的消息,您必须添加一个订阅终端节点到该主题。消息通知服务会发送一条订阅确认的消息到订阅终端,订阅确认的消息将在48小时内有效。如果订阅者在48小时之内确认订阅,将会收到推送至主题的消息。如果订阅者在48小时之内没有确认订阅,则需要再次给订阅者发送订阅确认的消息。 1.登录管理控制台。 2.选择“管理与监管 > 消息通知服务”。 进入消息通知服务页面。 3.在左侧导航栏,选择“主题管理 > 主题”。 进入主题页面。 4.在主题列表中,选择您要向其添加订阅者的主题,在右侧“操作”栏单击“添加订阅”。 此时将显示“添加订阅”对话框。 其中:协议参数选项为“短信”、“邮件”、FunctionGraph(函数)HTTP、HTTPS。 订阅终端参数为订阅的终端地址,短信、邮件终端支持批量输入,批量添加时,每个终端地址占一行。最多可输入10个终端。 5.单击“确定”。 新增订阅将显示在页面下方的订阅列表中。 向订阅者发送消息 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.单击“告警管理”。 4.选择“消息订阅规则 > 添加消息订阅规则”,进入添加消息订阅页面。 5.配置消息订阅规则相关参数。 消息订阅规则参数说明 参数 说明 规则名称 用户自定义发送订阅消息的规则名称,只能包含数字、英文字符、中划线和下划线。 提醒通知 选择开启时,将按照该订阅规则为订阅者发送对应订阅消息。 选择关闭时,该规则不会生效,即不会向订阅者发送订阅消息。 主题名称 选择已创建的主题,也可以单击“创建主题”重新创建。 消息类型 选择需要订阅的消息类型。 告警 事件 订阅规则 选择需要订阅的消息规则,可根据需要勾选全部或部分规则。 、 MRS 3.x及之后版本订阅规则: 告警:紧急,重要,次要 事件:重要,次要,提示 MRS 3.x之前版本订阅规则: 致命 严重 一般 提示 6.单击“确定”完成消息提醒配置。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        集群运维
        配置消息通知
      • vLLM GPU多机推理
        本节介绍如何创建vLLM GPU多机推理任务。 本示例基于 vLLM 推理框架,选用 deepseekr1distillqwen7b 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 1 张 GPU 卡,因此本任务共使用 2 张 GPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件 > AI应用管理 > 队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 1. 进入智算套件 > AI应用列表 > 在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 应用数:1 配置信息 推理类型选择多机,推理框架、框架版本、推理模型、模型版本根据实际情况选择即可。简单的示例: 推理框架:nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen7b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        vLLM GPU多机推理
      • 创建 vLLM GPU 单机PD分离任务(1)
        本节介绍如何创建 vLLM GPU 单机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存,rdma/rdmashareddevicea) [参考创建队列的文档] 操作步骤 1. 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 2. 创建应用 基本信息 应用类型:vLLM 开启PD分离选择:静态PD分离 推理类型选择:单机 PD分离:Prefill PD分离:Decode 推理框架,框架版本,推理模型,模型版本根据实际情况选择。 简单的示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 资源:CPU,内存,共享内存可以不填 选择 GPU:4,rdma/rdmashareddevicea:1 队列:选择存在且资源足够的的队列 点击确认完成创建。
        来自:
      • 路由到分布式消息服务Kafka
        结果验证 1. 使用事件源触发一个事件。 2. 您可以在分布式消息服务Kafka管理控制台确认是否接收到事件,如图2所示。 1. 登录分布式消息服务Kafka管理控制台,然后在左侧导航栏选择实例列表。 2. 在实例列表页面单击目标实例名称。 3. 在消息查询页面,进行对应消息查询即可查看消息内容。 图2 在分布式消息服务Kafka管理控制台中查看消息详情
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件目标
        路由到分布式消息服务Kafka
      • 消息管理
        本文介绍消息管理功能的使用方式。 使用说明 1. 登录ECX控制台。 2. 在左侧栏找到【服务管理>消息管理】并点击进入。 3. 消息管理版块可以配置接收消息的邮箱、安全验证方式、消息接收组。 邮箱 点击【邮箱】,可以查看注册邮箱、默认的消息通知都将发送到注册邮箱中,如果您的天翼云账号不是以邮箱注册的,可以在【天翼云官网>我的>账号中心>基本信息、安全设置】版块,绑定一个邮箱。 安全验证 点击【安全验证】,可以设置敏感操作保护,开启后,进行敏感操作时,将需要进行安全验证。 消息接收组 点击【消息接收组】,可以查看、创建、管理消息接收组,一个消息接收组中支持配置企业微信机器人地址、钉钉订阅地址、多个邮箱及手机号,用于接收告警消息。所有接收组中的手机号,共享短信通知配额。
        来自:
        帮助文档
        智能边缘云
        运维与监控
        消息管理
      • 推送策略
        参数名 解释说明 策略名 推送策略的名字,也是管理相关策略的索引。 描述 对当前策略进行备注。 推送方式 邮件推送、短信推送,目前仅支持短信推送。 推送时段 全天、时间段,客户根据自身的业务需要,选择特定时间段接收消息。 推送频率 系统预置半小时、1小时、2小时、4小时、8小时、24小时。 消息类型 设备消息、平台事件消息、AI消息。 子类型 设备消息:设备离线、流离线、录制失败。 平台事件消息:设备离线。 AI消息:展示AI应用的列表信息。 以上类型均支持单选、多选。 消息内容 邮件、短信接收到的文案信息。 生效资源 支持用户选择业务组、目录及独立设备,支持单选、多选。 推送对象 支持用户选择用户组或具体子用户,支持单选、多选。
        来自:
        帮助文档
        智能视图服务
        用户指南(旧版)
        消息推送
        推送策略
      • ALM-19018 HBase合并队列超出阈值
        本章节主要介绍ALM19018 HBase合并队列超出阈值的告警。 告警解释 系统每300秒周期性检测HBase服务的compaction队列长度,当检测到HBase服务的compaction队列长度超过告警的阈值(默认100)时产生该告警。当compaction队列长度小于告警的阈值时,告警恢复。 说明 说明 若集群启用了多实例功能且安装了多个HBase服务,请根据“定位信息”的“服务名”值来确定具体产生告警的HBase服务。例如“定位信息”中显示服务名HBase1,处理步骤中的操作对象也应由HBase调整为HBase1。 告警属性 告警ID 告警级别 是否自动清除 19018 次要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 产生该告警表示HBase服务的compaction队列长度已经超过规定的阈值,如果不及时处理,可能会导致集群性能下降,影响数据读写。 可能原因 HBase RegionServer数太少。 HBase 单个RegionServer上Region数过多。 HBase RegionServer堆大小较小。 资源不足。 相关参数配置不合理。 处理步骤 检查相关配置是否合理 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,查看是否存在告警ID为“19011”的告警。 是,单击对应告警右侧的“查看帮助”并按照帮助文档进行处理,执行步骤3。 否,执行步骤2。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > HBase > 配置 > 全部配置,搜索“hbase.hstore.compaction.min”,“hbase.hstore.compaction.max”,“hbase.hstore.compactionThreshold”,“hbase.regionserver.thread.compaction.small”和“hbase.regionserver.thread.compaction.throttle”,适当调大其值。 3.观察界面告警是否清除。 是,处理完毕。 否,执行步骤4。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-19018 HBase合并队列超出阈值
      • 创建JupyterLab开发机(1)
        开发机资源配置 配置队列及任务优先级,如果还未创建队列,请参考“创建队列”相关的文档,创建完成之后点击 “创建队列” 旁边的刷新按钮再进行队列选择。 按需配置CPU、内存、GPU、NPU资源。 其他配置 root用户启动:如果关闭了 “工作空间目录配置” 选项可以选择将root用户启动关闭,将使用非root用户启动容器。 模型分析:打开模型分析时,会在创建开发机时自动创建TensorBoard服务,模型分析配置会自动关联前面数据集配置中已选择的私有数据集(仅支持配置私有数据集,公共数据集具有只读权限无法进行文件写入),可以选择不打开模型分析,后续再单独创建。 环境变量按需进行配置。 点击创建。 开发机远程访问 查看开发机列表 等待新建开发机的“访问”按钮可点击后,访问提示信息中的链接,先选择资源池信息,然后配置“弹性负载均衡>访问策略组”,修改isuitenotebookacl策略组的配置(默认只放开了127.0.0.1地址),需要增加本地客户端的出口IP配置。 获取本机出口IP的方式可通过百度搜索“ip地址”进行查询。 配置完成后回到“智算套件>AI应用开发”控制台,点击对应开发机的 “访问” 按钮即可访问该开发机,工作空间会显示持久化存储中保存的文件等。
        来自:
      • 消费端挂载NFS是否会影响消费速度?
        本节介绍消费端挂载NFS是否会影响消费速度 消费端在消费消息的主线程里同步将拉取的消息存储在NFS,导致消费端处理消息的速度变慢,阻塞消息处理。 可能原因 NFS本身速度就不太理想。 NFS是网络共享存储,虽然有多机器共享访问的能力优势,但多台机器访问是争抢的,消费者个数增多,性能反而下降。 解决方案 建议将消费端拉取消息和存储消息分别放在两个独立且不同的线程里操作。拉取消息的线程只管消费消息,把消息转给缓存处理线程后就继续消费消息,这样可以保证消费速度的稳定。 也可以考虑采用云盘,给每台消费端处理机挂载自己的云盘,各自独立存储,这样消费端不会再因为争抢NFS而降低性能。如果需要把最终的处理结果集中到同一个NFS上保存,仍然可以通过一个异步的工具或者线程,把云盘上的结果再转发到NFS上,而不要让同步存储NFS阻塞消息处理。总之,对于资源访问造成的处理低效,总是可以用异步处理的方式解决。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        消费端挂载NFS是否会影响消费速度?
      • 设置消息回执的接收方式
        本文为您介绍设置消息回执接收方式的操作流程。 注意事项 使用短信的API接口发送短信后,可以通过HTTP批量推送模式来接收短信的回执消息和上行短信等内容。 如果出现网络问题等异常情况,导致消息回执未成功获取,还可以通过短信发送记录查询API接口进行一定的补偿。目前支持30天内发送记录的查询,可查询一天的发送数据。 消息类型 短信提供3种消息类型:SmsReport(短信下行回执报告消息)、SmsMo(上行短信消息)、eventReport(事件回调消息)。 上行短信指用户发送给通信服务供应商的短信,用于定制某种服务、完成某种查询、或是办理某种业务等。与上行短信相对应的是下行短信。下行短信是指用户收到的短信,例如运营商发送的消息通知、业务提醒等短信。签名和模板审核状态消息是指用户提交的相关信息的审核状态的报告,说明如下。 通过订阅SmsReport可以获知每条短信的发送情况,了解短信是否到达终端用户的状态与相关信息。 通过订阅SmsMo可以获知终端用户回复短信的内容。 通过订阅eventReport接口获取签名,模板的审核状态消息。 更多信息,请参见回调消息简介与配置流程。 事件回调配置 如果需要接收回执消息,必须先在控制台上开启消息接收。 1. 登录云通信控制台。 2. 在左侧导航栏,单击消息配置。 3. 在事件回调配置 区域,单击设置。 4. 云通信消息接收目前支持HTTP批量推送模式 ,该模式通过HTTP POST方式发送消息到指定的Web URL。 说明: HTTP批量推送模式支持全部消息类型。 [](
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        用户指南
        设置
        设置消息回执的接收方式
      • 为什么Group不存在但能消费消息?
        本节介绍Group不存在但能消费消息原因 我在分布式消息服务Kafka控制台上,未查看到对应的Group,但此Group下却有消费线程在消费消息。 可能原因 如果客户端使用assign方式消费消息,那么即使不创建Group,也可能消费消息。 如果客户端使用subscribe方式消费消息,删除Group后,消费线程未停止或者未发生Rebalance,那么消费线程还可以继续正常消费。 解决方案 如果客户端使用assign方式消费消息,请提前在分布式消息服务Kafka控制台创建Group。 请尽量复用Group,避免创建过多的Group而影响集群的稳定性。 在删除Group前,请确保已停止该Group下的所有消费线程。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        为什么Group不存在但能消费消息?
      • 消息中心
        本节介绍如何查看防护容器的下线通知和删除服务通知。 消息中心页面提供防护容器的下线通知和删除服务通知,以便用户及时恢复防护容器。 查看消息 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“消息中心”,进入消息中心页面。 3. 支持查看“服务信息”和“删除服务”类消息。 标记已读 在消息中心页面,阅读消息后,可以勾选多条消息后,单击“标记已读”,在弹出的对话框中,可以选择“全部标记已读”或只对当前选择项标记已读,选择完成后,单击“确认”。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        消息中心
      • MindIE NPU多机推理(1)
        本节介绍如何创建MindIE NPU多机推理任务。 本示例基于 MindIE 推理框架,选用 DeepSeekV3.1w8a8c8QuaRot 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 8 张 NPU 卡,因此本任务共使用 2 台机器、16 张 NPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 应用数:1 配置信息 推理类型选择多机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:DeepSeekV3.1w8a8c8QuaRot 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • MindIE NPU多机推理
        本节介绍如何创建MindIE NPU多机推理任务。 本示例基于 MindIE 推理框架,选用 DeepSeekV3.1w8a8c8QuaRot 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 8 张 NPU 卡,因此本任务共使用 2 台机器、16 张 NPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 应用数:1 配置信息 推理类型选择多机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:DeepSeekV3.1w8a8c8QuaRot 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        MindIE NPU多机推理
      • 消费组详情
        介绍分布式消息服务Kafka消费组详情功能操作内容。 场景描述 当需要查询以下信息时,可通过消费组详情页面操作: 查看在线消费者列表及其订阅的主题、分区。 查看消费组订阅的主题的消息堆积详细情况。 Kafka消息堆积的场景包括以下几个: 消费者处理延迟:当消费者的处理能力不足或出现故障时,无法及时消费Kafka中的消息,导致消息堆积。这可能是由于消费者的处理逻辑复杂、处理速度慢,或者消费者的资源不足等原因引起的。 网络故障:当Kafka集群与消费者之间的网络出现故障或不稳定时,可能导致消息传输延迟或中断。这会导致消息在Kafka中堆积,等待网络恢复后才能被消费。 生产者速度超过消费者:当生产者产生消息的速度超过消费者的处理速度时,会导致消息在Kafka中堆积。这可能是由于生产者的速度过快、消费者处理能力不足或者消费者故障等原因引起的。 消费者组调整:当消费者组中的消费者发生变化,如新增或退出消费者,会触发Kafka的重平衡操作。在重平衡期间,消费者无法消费消息,导致消息堆积。这通常发生在消费者扩展或故障恢复时。 高峰期消息涌入:在某些特定的时间段或事件发生时,可能会引发大量的消息涌入Kafka,超过消费者的处理能力。这会导致消息在Kafka中堆积,直到消费者能够跟上消息的处理速度。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        消费组详情
      • 按需转包周期
        介绍分布式消息服务RabbitMQ按需转包周期。 场景描述 RabbitMQ的按需转包周期的场景描述如下: 在使用RabbitMQ时,可能会遇到需要设置按需转包周期的场景,例如: 消息积压处理:当RabbitMQ中的消息积压较多时,可能会导致消息的消费速度跟不上消息的生产速度,进而影响系统的性能和稳定性。为了解决这个问题,可以设置按需转包周期,即将一定数量的消息打包成一个批次进行消费,以提高消费的效率和吞吐量。 业务流量波动:在某些业务场景下,业务流量可能会出现波动,即某个时间段内的消息产生速度较快,而另一个时间段内的消息产生速度较慢。为了更好地适应业务流量的波动,可以设置按需转包周期,以根据实际的消息产生情况进行灵活的批量消费。 系统资源优化:当RabbitMQ的消费者资源有限时,可以通过设置按需转包周期来优化系统的资源利用。通过将一定数量的消息打包成一个批次进行消费,可以减少消费者的竞争和上下文切换,提高系统的并发处理能力。 消息处理延迟优化:在某些场景下,对消息的实时性要求较低,可以通过设置按需转包周期来优化消息的处理延迟。将一定数量的消息打包成一个批次进行消费,可以减少消息的处理次数,从而降低消息的处理延迟。 需要注意的是,在设置按需转包周期时,应根据实际业务需求和系统情况进行调整。同时,应考虑消息的重要性、消费者的处理能力、系统的资源限制等因素,以确保系统的稳定性和性能。 操作步骤 1、登录RabbitMQ消息控制台,可以看到当前租户下面的实例列表。 2、点击需要变更实例栏 > 更多 > 按需转包周期。 3、进入到按需转包周期页面,在弹出来的确认窗口选择续订时长,点击确认即可。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例管理
        按需转包周期
      • 权限管理
        系统角色/策略名称 描述 类别 依赖关系 DMS FullAccess 分布式消息服务管理员权限,拥有该权限的用户可以操作所有分布式消息服务的功能。 系统策略 无 DMS UserAccess 分布式消息服务普通用户权限(没有实例创建、修改、删除、扩容)。 系统策略 无 DMS ReadOnlyAccess 分布式消息服务的只读权限,拥有该权限的用户仅能查看分布式消息服务数据。 系统策略 无 DMS VPCAccess 分布式消息服务租户委托时需要授权的VPC操作权限。 系统策略 无 DMS KMSAccess 分布式消息服务租户委托时需要授权的KMS操作权限。 系统策略 无 DMS Administrator 分布式消息服务的管理员权限。 系统角色 依赖Tenant Guest和VPC Administrator。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        权限管理
      • 新资费
        说明 分布式消息服务Kafka如下资源池支持Kafka2.8、3.6版本引擎,提供集群和单机两种规格实例,支持X86和ARM计算CPU架构类型的计算增强型主机,可选350代理数量。 目前在 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 资源池开放订购。 上述资源池订购和续订可享受1年83折,2年7折,3年5折优惠。 价格计算公式 分布式消息服务Kafka费用由实例费用和存储费用两部分组成,两者单价如下表所示,计费公式为: 实例费用实例规格单价 代理数量,单机版代理数量为1。 存储费用存储类型单价 代理数量 单节点存储空间GB大小,单机版代理数量为1。 实例规格单价 Intel计算增强型 规格名称 实例单价(单个节点) 规格名称 按需标准价格(元/小时) 包月标准价格(元/月) Kafka.2u4g.cluster 0.98 441 Kafka.4u8g.cluster 2.24 1008 Kafka.8u16g.cluster 4.86 2187 Kafka.12u24g.cluster 7.38 3321 Kafka.16u32g.cluster 9 4050 Kafka.24u48g.cluster 15.12 6804 Kafka.32u64g.cluster 20.16 9072 Kafka.48u96g.cluster 30.24 13608 Kafka.64u128g.cluster 40.32 18144
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        产品资费
        新资费
      • 重置消费位置
        介绍分布式消息服务Kafka重置消费位置功能操作内容。 场景描述 Kafka重置消费位置的场景包括以下几个: 初次消费:当一个新的消费者加入到Kafka集群时,它需要从某个位置开始消费消息。在这种情况下,可以将消费位置重置为最早的消息或最新的消息。 消费者组重置:当消费者组中的消费者发生变化,如新增或退出消费者,可能需要重置消费位置。在这种情况下,可以将消费位置重置为最早的消息或最新的消息。 消费者出现故障:当消费者发生故障,并且需要将其替换或修复时,可能需要重置消费位置。在这种情况下,可以将消费位置重置为最早的消息或最新的消息,以确保新的消费者能够从正确的位置开始消费。 消费者重新处理消息:在某些情况下,消费者可能需要重新处理之前已经消费过的消息。这可能是由于消费者的处理逻辑发生变化,或者需要重新计算之前的结果。在这种情况下,可以将消费位置重置为指定的消息位置,以便消费者重新处理消息。 消费者消费速度过慢:当消费者的处理能力不足,无法及时消费消息时,可能需要重置消费位置。在这种情况下,可以将消费位置重置为最新的消息,以便消费者能够跳过堆积的消息,从最新的消息开始消费。 操作步骤 Tips:目前消费只能重置72小时内的消息,可选择72小时内时间点重置。 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“消费组管理”后进入消费组管理页面。 (5)在目标消费组所在行,点击其右侧的“更多”,在下拉框中单击“重置消费位置”。 (6)出现重置消费位置窗口后,可以选择从最新点位开始消费、从最旧点位开始消费、按时间点进行消费位置重置、重置消费点位到附近n条。 四种重置方式试用场景如下: 从最新点位开始消费:将消费者的消费位置重置为最新的消息。这意味着消费者将从当前Kafka主题的最新消息开始消费,忽略之前已经产生的消息。这种方式适用于只关注最新消息的场景,如实时监控或日志记录。 从最旧点位开始消费:将消费者的消费位置重置为最早的消息。这意味着消费者将从当前Kafka主题的最早消息开始消费,包括之前已经产生的消息。这种方式适用于需要处理全部消息历史记录的场景,如数据重播或数据分析。 按时间点进行消费位置重置:将消费者的消费位置重置为指定的时间点。这意味着消费者将从指定时间点之后的消息开始消费,可以精确地选择消费的起始位置。这种方式适用于需要从特定时间点开始消费的场景,如数据回溯或重新处理。 重置消费点位到附近n条:将消费者的消费位置重置到指定的消费位点上,这个是分区级别的,因此可以更加精确地选择消费的起始位置。这种方式适用于需要从特定位点开始消费的场景,如数据回溯或重新处理。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        重置消费位置
      • 消费位点重置
        发生消费位点重置的两种情况 当服务端不存在曾经提交过的位点时(比如客户端第一次上线); 当从非法位点拉取消息时(比如某个分区最大位点是10,但客户端却从11开始拉取消息)。 配置重置策略 Java 客户端可以通过auto.offset.reset来配置重置策略,主要策略有: latest:从最大位点开始消费; earliest:从最小位点开始消费; none:不做任何操作,也即不重置。 策略配置建议 强烈建议设置成“latest”,而不要设置成“earliest”,避免因位点非法时从头开始消费,从而造成大量重复 如果是客户自己管理位点,可以设置成”none”; 拉取大消息。 拉取消息注意事项 消费过程是由客户端主动去服务端拉取消息的,在拉取大消息时,需要注意控制拉取速度,注意修改配置。 max.poll.records:如果单条消息超过1MB,建议这里设置为1; fetch.max.bytes:设置比单条消息的大小略大一点; max.partition.fetch.bytes:设置比单条消息的大小略大一点。拉取大消息的核心是一条一条拉。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消费位点重置
      • 1
      • ...
      • 18
      • 19
      • 20
      • 21
      • 22
      • ...
      • 240
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      科研助手

      一站式智算服务平台

      知识库问答

      人脸实名认证

      人脸属性识别

      推荐文档

      NAT网关的SNAT规则删除(DNAT规则删除操作相同)

      删除云安备

      域名的种类

      PC端需求(windows及MAC系统)

      分析指标历史数据并导出监控报告

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号