云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RocketMQ版_相关内容
      • 基于事件流实现消息路由至函数计算
        步骤二:测试验证 1. 登录分布式消息服务Kafka控制台。 2. 在左侧导航栏,单击实例列表,选择事件流的源实例。 3. 在主题管理页面,选择源的目标主题,操作列点击更多 ,然后点击生产消息。 4. 在生产消息对话框输入想要发送的消息,然后点击发送消息。 5. 发送消息后,登录函数计算管理控制台。 6. 在函数页面,单击目标函数名称。 7. 在目标函数详情页面,单击监控页签,查看函数是否被触发以及调用时延,如图1所示。 图1 在函数计算管理控制台中查看函数监控指标
        来自:
        帮助文档
        事件总线
        最佳实践
        基于事件流实现消息路由
        基于事件流实现消息路由至函数计算
      • RabbitMqProducer
        介绍APM监控详情里消息监控中的RabbitMqProducer相关指标的名称、含义等信息。 RabbitMqProducer监控指标说明表 指标类别 指标 指标说明 数据类型 异常 exceptionstacktrace 异常产生的堆栈信息 String 异常 exceptioncount 错误数 Int Exchange监控 messagedestination Exchange名 Enum Exchange监控 messageerrorcount 推送消息的错误次数 Int Exchange监控 messagecount 推送消息数 Int Exchange监控 messagetotalpayload 推送字节数 Int Exchange监控 Max(messagetotalpayload) 单次推送最大字节数 Int Exchange监控 messagemaxcost 推送消息的最大响应时间 Int Exchange监控 sum(messagecost) 推送消息的总响应时间 Int Total监控 messagetotalpayload 推送字节数 Int Total监控 messagecount 推送消息数 Int Total监控 messageerrorcount 推送消息的错误次数 Int Total监控 messagemaxcost 推送消息的最大响应时间 Int Total监控 sum(messagecost) 推送消息的总响应时间 Int Total监控 ms0To10Count 010ms次数 Int Total监控 ms10To100Count 10100ms次数 Int Total监控 ms100To500Count 100500ms次数 Int Total监控 ms500To1000Count 5001000ms次数 Int Total监控 ms1000To10000Count 110s次数 Int Total监控 msMorethan10000Count 10s以上次数 Int
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        消息监控
        RabbitMqProducer
      • 按位点查询
        介绍分布式消息服务Kafka按位点查询的功能操作内容。 场景描述 Kafka按位点查询是指通过指定偏移量或时间戳来查询Kafka主题中的消息。以下是一些常见的按位点查询的场景描述: 数据回溯:当需要回溯到过去的某个时间点或特定的消息偏移量时,可以使用按位点查询功能。这在故障排查、数据分析和报告生成等场景中非常有用,可以准确地获取特定时间点或消息的数据。 数据恢复:在某些情况下,如果由于意外情况导致数据丢失或损坏,可以使用按位点查询来恢复丢失的数据。通过指定偏移量或时间戳,可以定位到丢失数据之前的位置,然后将数据重新消费或导出。 数据验证:按位点查询还可以用于数据验证和一致性检查。通过指定特定的偏移量或时间戳,可以比较不同主题或分区之间的消息,以确保数据的一致性和正确性。 数据分析:按位点查询对于数据分析和统计也非常有用。通过指定特定的时间戳或偏移量范围,可以获取所需的数据子集,并对其进行进一步的分析和处理。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“消息查询”后默认就是按位点查询。 (5)下拉选择topic可以切换要查询的topic,填写offset消息位置,partition分区编号,可查询该分区offset位置开始的10条消息。 (6)点击消息列表的“消息详情”可查看消息详情信息
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消息查询
        按位点查询
      • 预取值
        介绍分布式消息服务RabbitMQ预取值功能 使用场景 所谓消息预取机制,它定义了在一个信道上,消费者允许的最大未确认的消息数量。 一旦未确认的消息数量达到了设置的预取值,RabbitMQ就停止传递更多消息,除非至少有一条未完成的消息得到了确认。 如何设置合适的预取值 通常,增加预取将提高向消费者传递消息的速度。虽然自动应答传输消息速率是最佳的,但是,在这种情况下已传递但尚未处理的消息的数量也会增加,从而增加了消费者的 RAM 消耗(随机存取存储器)应该小心使用具有无限预处理的自动确认模式或手动确认模式,消费者消费了大量的消息如果没有确认的话,会导致消费者连接节点的内存消耗变大,所以找到合适的预取值是一个反复试验的过程,不同的负载该值取值也不同 100 到 300 范围内的值通常可提供最佳的吞吐量,并且不会给消费者带来太大的风险。 预取值为 1 是最保守的。当然这将使吞吐量变得很低,特别是消费者连接延迟很严重的情况下,特别是在消费者连接等待时间较长的环境 中。对于大多数应用来说,稍微高一点的值将是最佳的。 设置预取值 设置预取值的java示例代码如下 ConnectionFactory factory new ConnectionFactory(); Connection connection factory.newConnection(); Channel channel connection.createChannel(); channel.basicQos(20, false);
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        高级特性
        预取值
      • 租户简介
        本章节主要进行租户简介。 定义 MRS集群拥有的不同资源和服务支持多个组织、部门或应用共享使用。集群提供了一个逻辑实体来统一使用不同资源和服务,这个逻辑实体就是租户。多个不同的租户统称多租户。当前仅分析集群支持租户。 原理 MRS集群提供多租户的功能,支持层级式的租户模型,支持动态添加和删除租户,实现资源的隔离,可以对租户的计算资源和存储资源进行动态配置和管理。 计算资源指租户Yarn任务队列资源,可以修改任务队列的配额,并查看任务队列的使用状态和使用统计。 存储资源目前支持HDFS存储,可以添加删除租户HDFS存储目录,设置目录的文件数量配额和存储空间配额。 租户可以在界面上根据业务需要,在集群中创建租户、管理租户。 创建租户时将自动创建租户对应的角色、计算资源和存储资源。默认情况下,新的计算资源和存储资源的全部权限将分配给租户的角色。 默认情况下,查看当前租户的资源,在当前租户中添加子租户并管理子租户资源的权限将分配给租户的角色。 修改租户的计算资源或存储资源,对应的角色关联权限将自动更新。 MRS中最多支持512个租户。系统默认创建的租户包含“default”。和默认租户同处于最上层的租户,可以统称为一级租户。 资源池 YARN任务队列支持一种调度策略,称为标签调度(Label Based Scheduling)。通过此策略,YARN任务队列可以关联带有特定节点标签(Node Label)的NodeManager,使YARN任务在指定的节点运行,实现任务的调度与使用特定硬件资源的需求。例如,需要使用大量内存的YARN任务,可以通过标签关联具有大量内存的节点上运行,避免性能不足影响业务。 在MRS集群中,租户从逻辑上对YARN集群的节点进行分区,使多个NodeManager形成一个资源池。YARN任务队列通过配置队列容量策略,与指定的资源池进行关联,可以更有效地使用资源池中的资源,且互不影响。 MRS中最多支持50个资源池。系统默认包含一个“default”资源池。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        租户管理
        租户简介
      • MindIE NPU单机PD分离
        本节介绍如何创建MindIE NPU单机PD分离任务。 本示例基于 MindIE 推理框架,选用 deepseekr1distillqwen1.5b 模型进行单机 PD(Prefill/Decode)分离部署。部署形态为 2P × 2D 架构,其中 Prefill 阶段使用 2 个实例,每个实例占用 1 张 NPU 卡;Decode 阶段使用 2 个实例,每个实例占用 1 张 NPU 卡。因此,本任务共需 4 张 NPU 卡,实现 Prefill 与 Decode 解耦,以提升首 Token 时延与整体吞吐性能。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 开启PD分离选择 静态PD分离 配置信息 推理类型选择单机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        MindIE NPU单机PD分离
      • 开启Smart Connect
        本节介绍如何开启Kafka的Smart Connect功能。 Smart Connect用于Kafka实例和其他云服务(如OBS)之间的数据同步,或者两个Kafka实例之间的数据同步,实现数据的备份或迁移。 Smart Connect的使用流程为: 1. 开启Smart Connect。 2. 创建Smart Connect任务。 本章节主要介绍如何开启Smart Connect。 约束与限制 开启Smart Connect后,实例需要另外收取用于Smart Connect的代理费用。 例如:规格为kafka.4u8g.cluster的实例,会另外创建至少两个规格为kafka.4u8g的代理,用于Smart Connect,所以需要收取相应代理费用。 前提条件 已创建Kafka实例,且实例状态为“运行中”。 “auto.create.groups.enable”已设置为“true”。如果需要修改“auto.create.groups.enable”的取值,请参考修改Kafka实例配置参数。 开启Smart Connect 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、通过以下任意一种方法,开启Smart Connect。 在待开启Smart Connect的Kafka实例所在行,单击“更多 > 开启Smart Connect”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 开启Smart Connect”。 单击Kafka实例名称,进入实例详情页面。在“Smart Connect”后,单击。 单击Kafka实例名称,进入实例详情页面。在左侧导航栏单击“Smart Connect”,进入Smart Connect页面。单击“开启Smart Connect”。 5、单击,将Smart Connect设置为开启,并设置用于Smart Connect的代理数量,代理数取值范围为2~16个,单击“下一步”。 说明 代理数默认为2个,如果您预估2个Kafka实例间的同步流量比较大,例如大于50MB/s,请设置2个以上的代理数。 6、确认“Smart Connect”为开启状态,单击“提交”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        开启Smart Connect
      • 购买实例
        本文主要介绍购买实例。 操作场景 Kafka实例采用物理隔离的方式部署,租户独占Kafka实例。支持用户自定义规格和自定义特性,您可以根据业务需要定制相应计算能力和存储空间的Kafka实例。 购买前须知 Kafka实例运行于虚拟私有云,购买实例前,需保证有可用的虚拟私有云,并且已配置好安全组与子网。 (可选)如果需要通过公网访问Kafka实例,请提前准备弹性IP地址。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择与您的应用服务相同的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击页面右上方的“购买Kafka实例”。 每个项目默认最多可以创建100个Kafka实例,如果您想创建更多实例,请联系客服申请增加配额。 步骤 5 选择“计费模式”、“区域”、“项目”和“可用区”。 步骤 6 设置“实例名称”和“企业项目”。 步骤 7 设置实例信息。 1. 版本:Kafka的版本号,支持1.1.0、2.3.0、2.7和3.x,根据实际情况选择,推荐使用3.x。 Kafka实例创建后,版本号不支持修改 。 2. 鲲鹏规格:“创建鲲鹏架构实例”选框,默认不勾选是X86架构的实例,勾选之后是ARM架构的鲲鹏实例。 3. 在“代理规格”中,请根据业务需求选择相应的代理规格。在“代理数量”中,选择代理个数。 单个代理最大分区数代理个数实例分区数上限。当所有Topic的总分区数大于实例分区数上限时,创建Topic失败。 4. 在“存储空间”区域,您根据实际需要选择存储Kafka数据的磁盘类型和总磁盘大小。 Kafka实例创建后,磁盘类型不支持修改 。 存储空间包含所有副本存储空间总和,建议根据业务消息体积以及副本数量选择存储空间大小。假设业务存储数据保留天数内磁盘大小为100GB,则磁盘容量最少为100GB副本数 + 预留磁盘大小100GB。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 5. 在“容量阈值策略”区域,设置磁盘使用达到容量阈值后的消息处理策略,容量阈值为95%。 自动删除:可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据存在丢失的风险。 生产受限:无法继续生产消息,但可以继续消费消息。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 图 创建Kafka实例 步骤 8 设置实例网络环境信息。 在“虚拟私有云”下拉列表,选择已经创建好的虚拟私有云和子网。 虚拟私有云可以为您的Kafka实例构建隔离的、能自主配置和管理的虚拟网络环境。 说明 虚拟私有云和子网在Kafka实例创建完成后,不支持修改。 子网开启IPv6后,Kafka实例支持IPv6功能。 IPv6:子网开启IPv6后,支持设置此参数。开启IPv6后,客户端可以使用IPv6地址连接实例。 说明 开启IPv6的实例不支持动态开启和关闭SASLSSL功能。 实例创建成功后,不支持修改IPv6开关。 在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对Kafka实例的访问规则的集合。您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 步骤 9 设置登录Kafka Manager的用户名和密码。创建实例后,Kafka Manager用户名无法修改。 Kafka Manager是开源的Kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 步骤 10 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤 11 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 “公网访问”默认为关闭状态,您可以选择是否开启。 开启公网访问后,还需要为每个代理设置对应的IPv4弹性IP地址。 说明 如果开启了IPv6功能,支持设置此参数。 2. 设置“Kafka SASLSSL”。 客户端连接Kafka实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 “Kafka SASLSSL”默认为关闭状态,您可以选择是否开启。 Kafka实例创建后,Kafka SASLSSL开关不支持修改 ,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您可以选择是否开启“SASL PLAIN 机制”。未开启“SASL PLAIN 机制”时,使用SCRAMSHA512机制传输数据,开启“SASL PLAIN 机制”后,同时支持SCRAMSHA512机制和PLAIN机制,根据实际情况选择其中任意一种配置连接。Kafka实例创建后,SASL PLAIN机制开关不支持修改。 什么是SCRAMSHA512机制和PLAIN机制? SCRAMSHA512机制:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN机制:一种简单的用户名密码校验机制。 开启Kafka SASLSSL后,您需要设置连接Kafka实例的用户名和密码。 3. 设置“Kafka自动创建Topic”。 “Kafka自动创建Topic”默认为关闭状态,您可以选择是否开启。 开启“Kafka自动创建Topic”表示生产或消费一个未创建的Topic时,系统会自动创建此Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 如果在“配置参数”中修改“log.retention.hours”、“default.replication.factor”或“num.partitions”的参数值,此后自动创建的Topic参数值为修改后的参数值。例如:“num.partitions”修改为“5”,自动创建的Topic参数值如下:分区数为5,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 4. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击“查看预定义标签”,跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个Kafka实例最多支持设置20个不同标签,标签的命名规格,请参考管理实例标签章节。 5. 设置实例的描述信息。 步骤 12 填写完上述信息后,单击“立即购买”,进入规格确认页面。 步骤 13 确认实例信息无误后,单击“提交”。 步骤 14 在实例列表页面,查看Kafka实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请参考删除实例,删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        购买实例
      • Kafka业务迁移
        方案一:先迁生产,再迁消费 指先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。 1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。 2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。 3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。 4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。 5、重启消费业务,使得消费者从新Kafka实例中消费消息。 6、观察消费者是否能正常从新Kafka实例中获取数据。 7、迁移结束。 本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。 方案二:同时消费,后迁生产 指消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。 1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。 说明 原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。 2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。 3、重启生产客户端,将生产业务迁移到新Kafka实例中。 4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。 5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 6、迁移结束。 迁移过程由业务自主控制。本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。 FAQ:如何将持久化数据也一起迁移 如果需要将原Kafka的已消费数据也迁移到Kafka专享实例,可以使用开源工具MirrorMaker,模拟成原Kafka的消费客户端,以及新Kafka实例的生产客户端,将Kafka所有消息数据迁移到新的Kafka实例。 需要注意的是,天翼云Kafka实例为3副本存储,因此建议实例存储空间为原业务的单副本消息存储的3倍。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka业务迁移
      • 系统配置
        自定义云短信网关 1 登录云堡垒机系统。 2 选择“系统 > 系统配置 > 外发配置”,进入系统外发配置管理页面。 外发配置 3 在“短信网关配置”区域,单击“编辑”,弹出短信网关配置窗口。 4 单击“确认”,返回外发配置页面,即可查看短信网关信息。 云短信网关参数说明 参数 说明 APPKey 申请短信应用后,输入短信应用的APPKey。 APPSecret 申请短信应用后,输入短信应用的APPSecret。 APP接入地址 申请短信应用后,输入短信应用的APP接入地址。 通道号 申请短信签名后,输入短信前面通道号。 模板ID 申请短信模板后,输入短信模板的ID。 测试手机号 输入可用手机号码,验证短信内容。 告警配置 配置告警方式 针对系统消息、业务消息、任务消息、命令告警、工单消息五大类告警类型,支持不同告警类型各级别消息是否告警和告警方式。 告警方式包括消息中心、邮件通知、短信通知。 根据告警等级划分各类消息是否告警,以及告警方式。 默认低等级消息不告警。 默认中等级消息告警,通过消息中心告警提醒。 默认高等级消息告警,通过消息中心和邮件通知。 本小节主要介绍如何配置系统告警方式。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统管理
        系统配置
      • KafkaProducer
        介绍APM监控详情里消息监控中的KafkaProducer相关指标的名称、含义等信息。 KafkaProducer监控指标说明表 指标类别 指标 指标说明 数据类型 异常 exceptionstacktrace 异常产生的堆栈信息 String 异常 exceptiontype 异常类型 String 异常 exceptioncount 错误数 Int Topic (Topic,Kafka的Topic监控数据) id Clientid和IP信息 Enum Topic (Topic,Kafka的Topic监控数据) topic Kafka的Topic名称 Enum Topic (Topic,Kafka的Topic监控数据) kafkaproducerbyterate 每秒发送字节 Int Topic (Topic,Kafka的Topic监控数据) kafkaproducerrecorderrorrate 每秒错误数 Int Topic (Topic,Kafka的Topic监控数据) kafkaproducerrecordretryrate 每秒重试数 Int Topic (Topic,Kafka的Topic监控数据) kafkaproducerrecordsendrate 每秒发送数 Int Topic (Topic,Kafka的Topic监控数据) kafkaproducerrecordsendtotal 总发送次数 Int Topic (Topic,Kafka的Topic监控数据) kafkaproducerbytetotal 总发送字节数 Int 汇总(Total,KafkaProducer汇总信息统计) kafkaproducerrecordsendtotal 总发送次数 Int 汇总(Total,KafkaProducer汇总信息统计) kafkaproducerbytetotal 总发送字节数 Int 发送方法(DoSendMethod,发送消息方法监控) topic Kafka的Topic名称 Enum 发送方法(DoSendMethod,发送消息方法监控) errorCount 错误数 Int 发送方法(DoSendMethod,发送消息方法监控) invokeCount 调用次数 Int 发送方法(DoSendMethod,发送消息方法监控) maxTime 最慢时延 Int 发送方法(DoSendMethod,发送消息方法监控) ms0To10Count 010ms次数 Int 发送方法(DoSendMethod,发送消息方法监控) ms10To100Count 10100ms次数 Int 发送方法(DoSendMethod,发送消息方法监控) ms100To500Count 100500ms次数 Int 发送方法(DoSendMethod,发送消息方法监控) ms500To1000Count 5001000ms次数 Int 发送方法(DoSendMethod,发送消息方法监控) ms1000To10000Count 110s次数 Int 发送方法(DoSendMethod,发送消息方法监控) msMorethan10000Count 10s以上次数 Int 发送方法(DoSendMethod,发送消息方法监控) totalTime 调用总耗时 Int
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        消息监控
        KafkaProducer
      • 管理共享集群
        批量删除 1.勾选一个或多个共享资源池后,批量删除按钮由灰色变成可操作。 2.其他流程与删除流程类似,.如果勾选的资源池有被队列引用,则只能先删除队列,才可以删除共享资源池。
        来自:
        帮助文档
        科研助手
        用户指南
        资源配额
        资源池管理
        共享资源池
        管理共享集群
      • 监控告警问题
        本文主要介绍监控告警问题。 云监控无法展示Kafka监控数据 Topic监控数据无法展示,可能原因如下: Topic名称开头包含特殊字符,例如下划线“”、号“”。 Kafka实例中没有创建Topic。 解决方法如下: 删除带特殊字符的Topic。 创建Topic。 消费组监控数据无法展示,可能原因如下: 消费组名称开头包含特殊字符,例如下划线“”、号“”。 此消费组从未有消费者连接。 Kafka监控显示消息堆积数跟实例里的消息数不一致? 问题现象 :监控显示消息堆积数为8.1亿+,Kafka控制台显示实例中6个Topic的消息数总和为1亿+,两者不一致。 问题结论 :两者统计方式不同,Kafka控制台显示的消息数为实例中未消费的消息个数,而监控显示的消息堆积数Topic中的消息积压数消费组数。 Kafka的消费组删除了,怎么监控页面还可以看到这个消费组? 监控数据是每分钟进行采集上报,上报的数据经过整理后才会显示在监控页面上,此过程大约需要几分钟到十几分钟,建议您在删除消费组后,过一段时间再去监控页面查看。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        监控告警问题
      • 消息通知概览
        本文介绍消息通知的功能。 消息通知是什么 消息通知功能是网络管理与业务运营系统中的关键组件,它主要负责及时、精准地将各类重要事件信息传达给相关人员。无论是网络监测中带宽使用超量,还是业务流程出现异常状况,该功能都能自动生成对应的消息通知,让相关人员第一时间掌握情况,为后续处理争取时间,保障系统稳定运行和业务顺利开展。 消息通知特点 拥有高度灵活的配置能力,支持对消息类型、通知方式和接收对象进行自由组合设置。比如,针对带宽超量事件可选择短信通知特定网络管理员,针对业务订单异常可通过邮件通知负责人,满足多样化的业务需求。 通知方式丰富多样,如短信、邮件、客户端等,每种方式各有特点,能适配不同场景。像短信通知即时性强,可确保信息快速触达;邮件通知适合传递详细内容,方便接收者深入了解事件。 短信通知方面,支持接入如阿里短信网关等多种可靠的短信网关,借助成熟的短信服务平台,保证短信通知的高效性和稳定性,避免重要信息遗漏,提升整体系统的可靠性和响应速度。 消息通知功能 功能 功能说明 通知类型 产品识别并针对不同性质的事件生成相应的消息通知。例如,套餐用量使用方面,当短信使用出现超量事件时,系统会自动生成对应的通知消息,消息通知需要由客户进行设定通知的方式、通知对象以便更及时的进行消息传递。 通知渠道 为了实现高效、稳定的通知服务,产品除了自身携带的通知网关后,还支持接入多种网关,比如阿里云短信服务网关。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        设置
        消息通知
        消息通知概览
      • 监控告警类
        本章节主要介绍监控告警类问题。 云监控无法展示RabbitMQ监控数据 监控数据无法展示,可能原因:队列名称开头包含特殊字符,例如点号“.”、下划线“”,建议删除带特殊字符的队列。 云监控显示通道数一直上升报警有影响吗? 一个连接最大通道数是2047,超过后再创建通道数会失败,建议排查是否为资源没有释放导致的。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        监控告警类
      • 会中聊天
        在会议过程中,参会者可以发送和接收实时消息,支持群聊和一对一私聊。 功能说明 可选择发送消息给会中所有人或指定单个成员。当成员收到聊天消息时,底部工具栏的“聊天”按钮右上角会显示红色气泡提示有未读消息。 聊天窗口仅支持发送文字消息,不支持发送图片或文件。 主持人可管理聊天权限,包括限制部分参会者的聊天发送功能。 操作步骤 1. 进入会议后,点击工具栏中的“聊天”图标,打开右侧聊天窗口。 2. 在聊天窗口顶部的下拉框中选择消息接收对象(所有人或指定成员),也可以在成员列表中选择对应的成员后点击“私聊”。 3. 在输入框输入消息内容,点击发送按钮即可发送消息。 注意事项 请勿在聊天中发送违法或违规内容,保持良好会议秩序。 如果消息发送失败,请检查网络连接并重试。
        来自:
        帮助文档
        AOne会议
        用户指南
        会中聊天
      • 使用MirrorMaker跨集群数据同步
        实施步骤 (1)购买一台弹性云主机,确保弹性云主机与源集群、目标集群网络互通。 (2)登录弹性云主机,安装Java JDK,并配置JAVAHOME与PATH环境变量。其中“/usr/local/java/jdk1.8.0161”为JDK的安装路径,请根据实际情况修改。 exportJAVAHOME/usr/local/java/jdk1.8.0161 exportPATH$JAVAHOME/bin:$PATH (3)下载安装kafka 下载页面: (4)进入kafka安装目录,修改“config/connectmirrormaker.properties”配置文件,在配置文件中指定源集群和目标集群的IP地址和端口以及其他配置。 (5)在kafka安装目录下,启动MirrorMaker,进行数据同步。 ./bin/connectmirrormaker.sh config/connectmirrormaker.properties 验证数据是否同步 要验证MirrorMaker是否成功同步数据,可以采取以下几种方法: 1. 检查目标集群的主题和分区: 在目标集群上使用Kafka命令行工具或管理工具,查看MirrorMaker复制的主题和分区是否存在。确保目标集群上有与源集群相同的主题和分区。 2. 检查消息偏移量: 使用Kafka消费者API或命令行工具,从目标集群中消费复制的消息。验证消息的偏移量是否与源集群中的消息偏移量一致。如果偏移量相同,表示数据同步成功。 3. 检查消息内容: 从目标集群中消费复制的消息,并与源集群中的消息进行比较。验证消息内容是否一致。可以使用Kafka消费者API或命令行工具来消费消息,并进行比较。 4. 监控MirrorMaker的指标: 在MirrorMaker节点上启用监控,收集关于复制进度、延迟和吞吐量等指标的数据。通过监控指标,可以了解MirrorMaker的工作状态和性能表现,进一步验证数据同步的情况。 5. 进行端到端测试: 在源集群中发送一些测试消息,并在目标集群中验证这些消息是否被成功复制。可以使用Kafka生产者API或命令行工具发送测试消息,并使用Kafka消费者API或命令行工具从目标集群中消费并验证消息。 通过以上方法,可以验证MirrorMaker是否成功同步数据,并确保数据在源集群和目标集群之间的一致性。根据实际需求,可以选择适合的验证方法或组合多种方法来进行验证。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        使用MirrorMaker跨集群数据同步
      • 添加租户
        本章节主要介绍翼MapReduce的添加租户操作。 操作场景 根据业务对资源消耗以及隔离的规划与需求,管理员可以通过FusionInsight Manager创建租户,以满足实际使用场景。 前提条件 已根据业务需求规划租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 已规划当前租户可分配的资源,确保每一级别租户下,直接子租户的资源之和不超过当前租户。 操作步骤 1. 登录FusionInsight Manager,单击“租户资源”。 2. 单击,打开添加租户的配置页面,参见下表为租户配置属性。 租户参数一览 参数名 描述 集群 选择要创建租户的集群。 名称 指定当前租户的名称,长度为3~50个字符,可包含数字、字母或下划线()。 根据业务需求规划租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 租户资源类型 指定租户是否是一个叶子租户: 选择“叶子租户资源”:当前租户为叶子租户,不支持添加子租户。 选择“非叶子租户资源”:当前租户为非叶子租户,支持添加子租户。 计算资源 为当前租户选择动态计算资源。 选择“Yarn”时,系统自动在Yarn中以租户名称创建任务队列。− 如果是叶子租户,叶子租户可直接提交到任务队列中。− 如果是非叶子租户,非叶子租户不能直接将任务提交到队列中。但是,Yarn会额外为非叶子租户增加一个任务队列(隐含),队列默认命名为“default”,用于统计当前租户剩余的资源容量,实际任务不会分配在此队列中运行。 不选择“Yarn”时,系统不会自动创建任务队列。 配置模式 计算资源参数配置模式。 选择“基础”时,只需配置“默认资源池容量 (%)”参数即可。 选择“高级”时,可手动配置资源分配权重,租户的最小/最大/预留资源。 默认资源池容量(%) 配置当前租户在默认资源池中使用的计算资源百分比,取值范围0~100%。 权重 资源分配权重,取值范围从0到100。 最小资源 保证租户资源能获得的资源(有抢占支持)。取值可以是父租户资源的百分比或绝对值。当租户资源作业量比较少时,资源会自动借给其他租户资源,当租户资源能使用的资源不满足最小资源时,可以通过抢占来要回之前借出的资源。 最大资源 租户资源最多能使用的资源,租户资源不能得到比最大资源设定更多的资源。取值可以是父租户资源的百分比或绝对值。 预留资源 租户资源预留资源。即使租户资源内没有作业,预留的资源也不能给别的租户资源使用。取值可以是父租户资源的百分比或绝对值。 存储资源 为当前租户选择存储资源。 选择“HDFS”时,系统将分配存储资源。 不选择“HDFS”时,系统不会分配存储资源。 文件目录数上限 配置文件和目录数量配额。 存储空间配额 配置当前租户使用的HDFS存储空间配额。 取值范围:当存储空间配额单位设置为MB时,范围为1~8796093022208。当存储空间配额单位设置为GB时,范围为1~8589934592。 此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。 如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 存储路径 配置租户在HDFS中的存储目录。 系统默认将自动在“/tenant”目录中以租户名称创建文件夹。例如租户“ta1”,默认HDFS存储目录为“/tenant/ta1”。 第一次创建租户时,系统自动在HDFS根目录创建“/tenant”目录。支持自定义存储路径。 服务 是否需要关联使用其他服务的资源,参见步骤4。 描述 配置当前租户的描述信息。 说明 创建租户时将自动创建租户对应的角色、计算资源和存储资源。 新角色包含计算资源和存储资源的权限。此角色及其权限由系统自动控制,不支持通过“系统 > 权限> 角色”进行手动管理,角色名称为“ 租户名称 集群ID ”。首个集群的集群ID默认不显示。 使用此租户时,请创建一个系统用户,并绑定租户对应的角色。具体操作请参见 创建租户时系统会自动创建一个Yarn任务队列,并自动以租户名称命名该队列。如果已经存在同名队列,新队列命名为“租户名称N”。“N”表示从1开始的自然数,存在同名队列的时候N会自动累加以区别已有队列。例如“saletenant”、“saletenant1”和“saletenant2”。 3. 当前租户是否需要关联使用其他服务的资源? 是,执行步骤4。 否,执行步骤5。 4. 单击“关联服务”,配置当前租户关联使用的其他服务资源。 在“服务”选择“HBase”。 在“关联类型”选择: − “独占”表示该租户独占服务资源,其他租户不能再关联此服务。 − “共享”表示共享服务资源,可与其他租户共享使用此服务资源。 说明 创建租户时,租户可以关联的服务资源只有HBase。为已有的租户关联服务时,可以关联的服务资源包含:HDFS、HBase和Yarn。 若为已有的租户关联服务资源:在租户列表单击目标租户,切换到“服务关联”页签,单击“关联服务”单独配置当前租户关联资源。 若为已有的租户取消关联服务资源:在租户列表单击目标的租户,切换到“服务关联”页签,单击“删除”,并勾选“我已阅读此信息并了解其影响。”,再单击“确定”删除与服务资源的关联。 单击“确定”。 5. 单击“确定”,等待界面提示租户创建成功。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Capacity调度器的租户业务
        创建租户
        添加租户
      • 添加租户
        本章节主要介绍翼MapReduce的添加租户操作。 操作场景 根据业务对资源消耗以及隔离的规划与需求,管理员可以通过FusionInsight Manager创建租户,以满足实际使用场景。 前提条件 已根据业务需求规划租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 已规划当前租户可分配的资源,确保每一级别租户下,直接子租户的资源之和不超过当前租户。 操作步骤 1. 登录FusionInsight Manager,单击“租户资源”。 2. 单击,打开添加租户的配置页面,参见下表为租户配置属性。 租户参数一览 参数名 描述 集群 选择要创建租户的集群。 名称 指定当前租户的名称,长度为3~50个字符,可包含数字、字母或下划线()。 根据业务需求规划租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 租户资源类型 指定租户是否是一个叶子租户: 选择“叶子租户资源”:当前租户为叶子租户,不支持添加子租户。 选择“非叶子租户资源”:当前租户为非叶子租户,支持添加子租户。 计算资源 为当前租户选择动态计算资源。 选择“Yarn”时,系统自动在Yarn中以租户名称创建任务队列。 − 如果是叶子租户,叶子租户可直接提交到任务队列中。 − 如果是非叶子租户,非叶子租户不能直接将任务提交到队列中。 但是,Yarn会额外为非叶子租户增加一个任务队列(隐含),队列默认命名为“default”,用于统计当前租户剩余的资源容量,实际任务不会分配在此队列中运行。 不选择“Yarn”时,系统不会自动创建任务队列。 配置模式 计算资源参数配置模式。 选择“基础”时,只需配置“默认资源池容量 (%)”参数即可。 选择“高级”时,可手动配置资源分配权重,租户的最小/最大/预留资源。 默认资源池容量(%) 配置当前租户在默认资源池中使用的计算资源百分比,取值范围0~100%。 权重 资源分配权重,取值范围从0到100。 最小资源 保证租户资源能获得的资源(有抢占支持)。取值可以是父租户资源的百分比或绝对值。当租户资源作业量比较少时,资源会自动借给其他租户资源,当租户资源能使用的资源不满足最小资源时,可以通过抢占来要回之前借出的资源。 最大资源 租户资源最多能使用的资源,租户资源不能得到比最大资源设定更多的资源。取值可以是父租户资源的百分比或绝对值。 预留资源 租户资源预留资源。即使租户资源内没有作业,预留的资源也不能给别的租户资源使用。取值可以是父租户资源的百分比或绝对值。 存储资源 为当前租户选择存储资源。 选择“HDFS”时,系统将分配存储资源。 不选择“HDFS”时,系统不会分配存储资源。 文件目录数上限 配置文件和目录数量配额。 存储空间配额 配置当前租户使用的HDFS存储空间配额。 取值范围:当存储空间配额单位设置为MB时,范围为1~8796093022208。当存储空间配额单位设置为GB时,范围为1~8589934592。 此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。 如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 存储路径 配置租户在HDFS中的存储目录。 系统默认将自动在“/tenant”目录中以租户名称创建文件夹。例如租户“ta1”,默认HDFS存储目录为“/tenant/ta1”。 第一次创建租户时,系统自动在HDFS根目录创建“/tenant”目录。支持自定义存储路径。 服务 是否需要关联使用其他服务的资源,参见步骤4。 描述 配置当前租户的描述信息。 说明 创建租户时将自动创建租户对应的角色、计算资源和存储资源。 新角色包含计算资源和存储资源的权限。此角色及其权限由系统自动控制,不支持通过“系统 > 权限> 角色”进行手动管理,角色名称为“ 租户名称 集群ID ”。首个集群的集群ID默认不显示。 使用此租户时,请创建一个系统用户,并绑定租户对应的角色。具体操作请参见 创建租户时系统会自动创建一个Yarn任务队列,并自动以租户名称命名该队列。如果已经存在同名队列,新队列命名为“租户名称N”。“N”表示从1开始的自然数,存在同名队列的时候N会自动累加以区别已有队列。例如“saletenant”、“saletenant1”和“saletenant2”。 3. 当前租户是否需要关联使用其他服务的资源? a.是,执行步骤4。 b.否,执行步骤5。 4. 单击“关联服务”,配置当前租户关联使用的其他服务资源。 a.在“服务”选择“HBase”。 b.在“关联类型”选择: − “独占”表示该租户独占服务资源,其他租户不能再关联此服务。 − “共享”表示共享服务资源,可与其他租户共享使用此服务资源。 说明 创建租户时,租户可以关联的服务资源只有HBase。为已有的租户关联服务时,可以关联的服务资源包含:HDFS、HBase和Yarn。 若为已有的租户关联服务资源:在租户列表单击目标租户,切换到“服务关联”页签,单击“关联服务”单独配置当前租户关联资源。 若为已有的租户取消关联服务资源:在租户列表单击目标的租户,切换到“服务关联”页签,单击“删除”,并勾选“我已阅读此信息并了解其影响。”,再单击“确定”删除与服务资源的关联。 c.单击“确定”。 5. 单击“确定”,等待界面提示租户创建成功。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        创建租户
        添加租户
      • 从服务端应用向消息队列MQTT版发送单条消息
        本文为您介绍分布式消息服务MQTT的API消息发送。 POST ContentType:application/json 请求体json参数说明: 参数名 参数类型 是否必填 参数描述 prodInstId String 是 实例ID mqttTopic String 是 MQTT主题 payload String 是 消息内容 返回参数说明: 参数名 参数类型 参数描述 message String 描述状态 statusCode Integer 800成功 其他失败 成功 { "message": "success","statusCode": "800"} 失败 {"returnObj": null,"message": "error","statusCode": "900"}
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        消息发送
        从服务端应用向消息队列MQTT版发送单条消息
      • 应用类
        本文介绍科研助手的应用类常见问题。 科研助手适用哪些场景? HPC:适用于视频渲染、视频转码(视频格式转换、视频分辨率变化、添加水印/logo的)、科研教育等领域。 科学计算:适用于仿真模拟、化学分子计算、流体计算等。 生物分析:适用于基因测序、药物检测等领域。 科研助手的核心功能有哪些? 多资源池管理: 底层资源池ECK专有资源、Serverless共享容器资源池、ECX虚拟机资源池满足不同价格区间的业务需求。 队列管理: 提供对作业队列管理,支持CPU/GPU作业和队列管理。 开发环境: 以云原生的资源使用和开发工具链的集成,为不同类型开发、探索、教学用户,提供更好云化开发体验。
        来自:
        帮助文档
        科研助手
        常见问题
        应用类
      • 消费位点
        每个 Topic 会有多个分区,每个分区会统计当前消息的总条数,这个称为最大位点 MaxOffset。Kafka Consumer 会按顺序依次消费分区内的每条消息,记录已经消费了的消息条数,称为ConsumerOffset。 剩余的未消费的条数(也称为消息堆积量) MaxOffset ConsumerOffset
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消费位点
      • vLLM GPU多机PD分离
        本节介绍如何创建vLLM GPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存,rdma/rdmashareddevicea) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择:静态PD分离 推理类型选择:多机 配置信息 推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。 简单的示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        vLLM GPU多机PD分离
      • vLLM GPU多机PD分离(1)
        本节介绍如何创建vLLM GPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存,rdma/rdmashareddevicea) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择:静态PD分离 推理类型选择:多机 配置信息 推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。 简单的示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • 创建vLLM GPU多机PD分离任务(1)
        本节介绍如何创建vLLM GPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存,rdma/rdmashareddevicea) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择:静态PD分离 推理类型选择:多机 配置信息 推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。 简单的示例: 推理框架: nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 GPU 和自定义资源 rdma/rdmashareddevicea。
        来自:
      • 参数配置
        模块名称 参数名称 说明 跨域访问 http.cors.allowcredentials 跨域访问是否返回头部的AccessControlAllowCredentials。 取值范围:true、false。 默认值:false。 跨域访问 http.cors.alloworigin 允许跨域访问的IP,配置样例如122.122.122.122:9200。 跨域访问 http.cors.maxage 浏览器默认缓存时间。如果超过设置的时间后,缓存将自动清除。 单位:秒。 默认值:1728000。 跨域访问 http.cors.allowheaders 跨域访问允许的headers,包括XRequestedWith, ContentType, ContentLength,中间用英文逗号和空格分开。 跨域访问 http.cors.enabled 是否允许跨域访问。 取值范围:true、false。 默认值:false。 跨域访问 http.cors.allowmethods 跨域访问允许的方法,包括OPTIONS, HEAD, GET, POST, PUT, DELETE,中间用英文逗号和空格分开。 集群索引重建 reindex.remote.whitelist 配置该参数可以将本集群数据通过reindex接口迁移到配置的集群,配置样例如122.122.122.122:9200。 自定义缓存 indices.queries.cache.size 查询阶段的缓存大小。 取值范围:1100。 单位:%。 默认值:10%。 线程池队列大小 threadpool.bulk.queuesize Bulk请求的队列大小。输入的参数值为整数类型。 默认值:200。 当集群版本为7.x之前版本时,显示此参数。 线程池队列大小 threadpool.write.queuesize 线程池写入队列大小。输入的参数值为整数类型。 默认值:200。 当集群版本为7.x之后版本时,显示此参数。 线程池队列大小 threadpool.forcemerge.size 用来做forcemerge的队列大小。输入的参数值为整数类型。 默认值:1。 自定义 用户可以根据实际情况,添加相关参数名称。 自定义参数的取值。 说明 l 如果自定义参数有多个取值,则取值的输入格式为[value1, value1, value1...]。 l 取值之间用英文逗号和空格隔开。 l 自定义参数值中不能包含冒号。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        管理Elasticsearch类型集群
        参数配置
      • 重试策略
        配置项 解释说明 最大重试次数 用于配置异步调用流程中的消息最大重试次数,取值范围[0,8]。函数计算在默认情况下,对异步触发失败的消息进行3次重试,您可以根据业务需求减少或增加对异步调用的重试。 消息最大存活时长 用于配置异步调用流程中的消息最大存活时长,取值范围[1,2592000],单位为秒。该时长从触发异步调用时开始计算,到该消息出队准备进行处理为止。如果超过配置的消息最大存活时长,该条消息将被丢弃。
        来自:
        帮助文档
        函数计算
        用户指南
        函数调用
        异步调用
        重试策略
      • 创建JupyterLab开发机
        配置资源 配置队列及任务优先级,如果还未创建队列,请参考“创建队列”相关的文档,创建完成之后点击 “创建队列” 旁边的刷新按钮再进行队列选择。 按需配置CPU、内存、GPU、NPU资源。 其他配置 root用户启动:如果关闭了 “工作空间目录配置” 选项可以选择将root用户启动关闭,将使用非root用户启动容器。 模型分析:打开模型分析时,会在创建开发机时自动创建TensorBoard服务,模型分析配置会自动关联前面数据集配置中已选择的私有数据集(仅支持配置私有数据集,公共数据集具有只读权限无法进行文件写入),可以选择不打开模型分析,后续再单独创建。 环境变量按需进行配置。 点击创建。 远程访问 查看开发机列表 等待新建开发机的“访问”按钮可点击后,访问提示信息中的链接,先选择资源池信息,然后配置“弹性负载均衡>访问策略组”,修改isuitenotebookacl策略组的配置(默认只放开了127.0.0.1地址),需要增加本地客户端的出口IP配置。 获取本机出口IP的方式可通过百度搜索“ip地址”进行查询。 配置完成后回到“智算套件>AI应用开发”控制台,点击对应开发机的 “访问” 按钮即可访问该开发机,工作空间会显示持久化存储中保存的文件等。
        来自:
        帮助文档
        智算套件
        用户指南
        开发机
        NoteBook管理
        创建JupyterLab开发机
      • 创建VSCode开发机
        配置资源 配置队列及任务优先级,如果还未创建队列,请参考“创建队列”相关的文档,创建完成之后点击 “创建队列” 旁边的刷新按钮再进行队列选择。 按需配置CPU、内存、GPU、NPU资源。 其他配置 root用户启动:如果关闭了 “工作空间目录配置” 选项可以选择将root用户启动关闭,将使用非root用户启动容器。 模型分析:打开模型分析时,会在创建开发机时自动创建TensorBoard服务,模型分析配置会自动关联前面数据集配置中已选择的私有数据集(仅支持配置私有数据集,公共数据集具有只读权限无法进行文件写入),可以选择不打开模型分析,后续再单独创建。 环境变量按需进行配置。 点击创建。 远程访问 查看开发机列表。 等待新建开发机的“访问”按钮可点击后,访问提示信息中的链接,先选择资源池信息,然后配置“弹性负载均衡>访问策略组”,修改isuitenotebookacl策略组的配置(默认只放开了127.0.0.1地址),需要增加本地客户端的出口IP配置。 获取本机出口IP的方式可通过百度搜索“ip地址”进行查询。 配置完成后回到“智算套件>AI应用开发”控制台,点击对应开发机的“访问”按钮即可访问该开发机,工作空间会显示持久化存储中保存的文件等。
        来自:
        帮助文档
        智算套件
        用户指南
        开发机
        NoteBook管理
        创建VSCode开发机
      • 工作空间
        工作空间 工作空间(Workspace)属于态势感知(专业版)顶层工作台,单个工作空间可绑定普通项目、企业项目和Region,可支撑不同场景下的工作空间运营模式。 数据空间 数据空间是进行数据分组、负载、流控单元。同一数据空间的数据共享同一负载均衡策略。 数据管道 数据传输消息主题和存储索引组合为数据管道。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        产品介绍
        基本概念
        工作空间
      • 告警行动规则
        参数名称 说明 行动规则名称 行动规则的名称,只能由数字、字母、下划线组成,且不能以下划线开头和结尾,长度为3到36个字符。 描述 行动规则的描述。 行动规则类型 告警行动规则与SMN主题、消息模板关联的类型,请从下拉列表中选择。当前只支持“通知”类型。 主题 SMN主题,请从下拉列表中选择。若没有合适的主题,请单击主题选择栏下方“创建主题”,在SMN界面创建。 消息模板 通知消息的模板,请从下拉列表中选择。若没有合适的消息模板,请单击消息模板选择栏右侧“创建消息模板”,新建消息模板。
        来自:
        帮助文档
        应用运维管理
        用户指南
        告警管理
        告警行动规则
      • 告警配置
        告警策略模板 1. 登录ECX控制台,点击【服务管理>告警管理>告警模板】。 2. 点击【+创建告警模板】可以创建告警策略模板。 3. 通过创建告警策略模板,可以在创建告警策略时,选择对应的模板,快速创建告警策略。 告警消息 1. 登录ECX控制台,点击【服务管理>告警管理>告警消息】。 2. 告警消息版块可以查看所有的告警消息。 3. 如果触发告警的问题已修复,可以对告警消息点击【处理】,告警消息将被标记为【已恢复】。
        来自:
        帮助文档
        智能边缘云
        运维与监控
        告警配置
      • 1
      • ...
      • 20
      • 21
      • 22
      • 23
      • 24
      • ...
      • 241
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      轻量型云主机

      天翼云CTyunOS系统

      训推服务

      AI Store

      模型推理服务

      应用托管

      推荐文档

      配置老化周期

      玩转天翼云②:linux系统攻击基本排查方法

      只读实例简介

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号