云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RabbitMQ版_相关内容
      • 重置Kafka密码
        本文主要介绍 重置Kafka密码。 操作场景 如果您忘记了创建实例时设置的SASLSSL密码,通过重置Kafka密码功能,重新设置一个新的密码,可使用新密码连接Kafka实例。 说明 仅开启Kafka SASLSSL认证的Kafka实例才可以重置Kafka密码。 只有处于“运行中”状态的Kafka实例支持重置Kafka密码。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重置Kafka密码。 在需要重置Kafka密码的Kafka实例右侧,单击“更多 > 重置Kafka密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,在“连接信息 > 用户名”后,单击“重置密码”,弹出重置Kafka密码对话框。 单击Kafka实例名称,进入实例详情页面。在“用户管理”页签,在待重置Kafka密码的用户所在行,单击“重置密码”,弹出重置Kafka密码对话框。 步骤 5 输入“新密码”,单击“确定”,完成密码重置。 如果重置密码成功,界面提示重置实例的密码成功。 如果重置密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重置Kafka密码
      • 修改分区平衡
        分区平衡前的准备工作 在不影响业务的前提下,适当调小Topic老化时间并等待消息老化,减少迁移数据,加快迁移速度,分区平衡任务结束后可重新调整为初始值。 确保分区平衡的目标Broker磁盘容量充足。如果目标Broker磁盘剩余容量接近分区平衡迁移到该Broker上的数据量,为了给目标Broker上的消息生产预留存储空间,应先进行磁盘扩容,再进行分区平衡。 自动平衡 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“Topic管理”,进入Topic列表页面。 步骤 6 通过以下任意一种方法,修改分区平衡。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“一键平衡 > 自动平衡”。 在待修改分区平衡的Topic所在行,单击“更多 > 一键平衡 > 自动平衡”。 步骤 7 设置自动平衡参数。 在“Brokers列表”区域,勾选目标Broker的名称,Topic分区的副本即将迁移至目标Broker上。 在“Topic列表”区域,输入Topic需要自动平衡的副本数,副本数须小于等于Broker的数量。 在“带宽限制”中,输入带宽大小,默认值为“1”,表示不限制带宽。如果实例负载较低,建议不设置带宽限制。如果需要设置带宽限制,建议该参数值不小于待分区平衡Topic的总生产带宽 待分区平衡Topic的最大副本数。带宽限制值的估算方法,请参考带宽限制值估算方法。 图设置自动平衡参数 步骤 7 单击“确定”,自动跳转到Topic列表页面。 在Topic列表页面左上方单击“查看变更任务”,进入“后台任务管理”页面,查看分区平衡任务的状态。当“状态”为“成功”时,表示分区平衡完成。 说明 分区平衡任务启动后,不能删除正在进行分区平衡的Topic,否则会导致分区平衡任务无法结束。 分区平衡任务启动后,无法修改Topic的分区数。 分区平衡任务启动后,无法手动停止任务,需要等到任务完成。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改分区平衡
      • SDK下载及使用说明
        该页面主要介绍分布式消息服务Kafka版的SDK,您可以根据实际业务需求进行集成。 各语言SDK下载及使用 支持语言 SDK附件 Java ctyunctgkafkajavasdkv1.0.1.zip Go ctyunctgkafkagosdkv1.0.1.zip 说明 由于运行环境的多样性,部分接口在某些特定配置下可能存在适配差异,我们的技术团队将持续优化兼容性。如有问题,可提单咨询。
        来自:
        帮助文档
        分布式消息服务Kafka
        API参考
        SDK下载及使用说明
      • 客户端设置
        右上角功能总览 右上角功能:订购、个性装扮、更多、退出、全屏/窗口化功能。 订购 如需订购天翼量子AI电脑公众版和政企版,点击“订购AI云电脑”入口,选择适合您需要的AI云电脑。 (1)公众版:适用于个人和家庭,一站式购买、管理、使用,即开即用,轻松上手,满足日常办公娱乐多种需求。 (2)政企版:适用于企业和组织,由管理员分配电脑及密码,集中管控,按需创建,广泛应用于安全办公、金融、教育等领域。 个性装扮 如需设置个性装扮,支持浅漾蓝、典雅灰、极光紫、幻彩沙、金蓝叙、商务蓝六大主题。 更多菜单 点击“三”展开更多功能面板,分别是个人信息、安全中心、家庭管理、消息中心、设置、报障、帮助手册、关于(版本号)。
        来自:
        帮助文档
        天翼云电脑(政企版)
        电脑终端指南(新)
        客户端设置
      • 约束与限制
        功能 单机实例 主备实例/集群版实例 数据库数量 100 100 数据库帐号数量 无限制 无限制 邮件功能 不支持 不支持 数据集成功能(SSIS) 不支持 不支持 数据分析功能(SSAS) 不支持 不支持 数据报表功能(SSRS) 不支持 不支持 R语言服务 不支持 不支持 公共语言运行时集成(CLR) 不支持 不支持 异步消息通讯 不支持 不支持 复制订阅功能 不支持 不支持 策略管理 不支持 不支持
        来自:
        帮助文档
        关系数据库SQL Server版
        产品简介
        约束与限制
      • 昇腾计算加速型云主机
        支持的镜像 CTyunOS 23.01 64 位 ARM 版昇腾 25.2.0 专用 银河麒麟高级服务器操作系统 V10 SP3 64 位 ARM 版昇腾 25.2.0 专用 openEuler 22.03 SP2 64 位 ARM 版昇腾 25.2.0 专用 PAK2型云主机 PAK2型昇腾计算加速型采用Atlas 300I Duo NPU,属于计算加速型大类,采用硬件直通技术,配备KunPeng920 7260处理器,没有进行资源超配,实例间无CPU/NPU争抢。在提供云主机灵活性的同时,提供高性能AI计算能力和卓越能效比,单卡内存96GB、显存带宽408GB/s、FP16算力140 TFLOPS,同时支持一机多卡,实现计算性能线性倍增。 规格特点 规格名称 CPU型号 AI加速卡型号 AI芯片 AI加速卡数量 单卡性能 磁盘类型 昇腾计算加速型PAK2 KunPeng 920 7260(64Cores) Huawei Atlas 300I duo Ascend 310 1 140 TFLOPS FP16计算 280 TOPS INT8计算 普通IO 高IO 通用型SSD 超高IO XSSD0, XSSD1, XSSD2 规格 规格名称 CPU 内存 AI加速卡类型 显存 最大带宽/基准带宽(Gbit/s) 网络收发包(万PPS) 多队列 pak2.4xlarge.8 16 128 Huawei Atlas 300I duo 196G 24/8 220 8 pak2.4xlarge.9 16 144 Huawei Atlas 300I duo 196G 24/8 220 8
        来自:
        帮助文档
        GPU云主机
        产品简介
        产品规格
        国产AI加速云主机
        昇腾计算加速型云主机
      • 查看消费者连接地址
        本文主要介绍查看消费者连接地址。 分布式消息服务Kafka支持通过以下两种方式查看消费者连接地址,您可以根据实际情况选择任意一种方式。 方法一:在管理控制台查看消费者连接地址 方法二:在Kafka Manager中查看消费者连接地址 说明 消费者处于连接Kafka实例时,才可以查看消费者连接地址。 Kafka Manager由于缓存原因,显示的消费者连接地址可能不是当前消费者连接地址,建议重启Kafka Manager解决。 方法一:在管理控制台查看消费者连接地址 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 步骤 6 单击待查看消费者连接地址的消费组名称,进入消费组详情页。 步骤 7 在“消费者列表”页签,查看消费者连接地址。 图 消费者列表 方法二:在Kafka Manager中查看消费者连接地址 步骤 1 登录Kafka Manager。 步骤 2 单击“kafkacluster”,进入集群详情页。 步骤 3 在顶部导航栏单击“Consumers”,进入消费组列表页面。 图 导航栏 步骤 4 单击待查看消费者连接地址的消费组名称,进入消费组订阅的Topic列表页面。 图 消费组列表页面 步骤 5 单击待查看消费者连接地址的Topic名称,进入Topic详情页。 图 消费组订阅的Topic列表页面 步骤 6 在“Consumer Instance Owner”中,查看消费者连接地址。 图Topic详情页
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        查看消费者连接地址
      • 查看实例
        本文主要介绍查看实例。 操作场景 本节介绍如何在分布式消息服务Kafka管理控制台查看Kafka实例的详细信息。例如,连接Kafka实例时,需要获取连接IP和端口。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 Kafka实例支持通过筛选来查询对应的Kafka实例。当前支持的筛选条件为标签、状态、名称、ID和连接地址。Kafka实例状态请参见下表。 表 Kafka实例状态说明 状态 说明 创建中 创建Kafka实例后,在Kafka实例状态进入运行中之前的状态。 运行中 Kafka实例正常运行状态。在这个状态的实例可以运行您的业务。 故障 Kafka实例处于故障状态。 启动中 Kafka实例从已冻结到运行中的中间状态。 重启中 Kafka实例正在进行重启操作。 变更中 Kafka实例正在进行规格变更、公网访问变更等操作。 变更失败 Kafka实例处于规格变更、公网访问变更等操作失败的状态。 已冻结 Kafka实例处于已冻结状态。 冻结中 Kafka实例从运行中到已冻结的中间状态。 升级中 Kafka实例正在进行升级操作。 回滚中 Kafka实例正在进行回滚操作。 步骤 5 单击Kafka实例的名称,进入该Kafka实例的基本信息页面,查看Kafka实例的详细信息。 下表为连接实例的相关参数,其他参数,请查看页面显示。 信息类型 参数 说明 ::: 连接信息 内网连接地址 未开启公网访问时,连接实例的地址。 显示的连接地址个数为实例代理个数。 连接信息 Manager内网访问地址 未开启公网访问时,连接Kafka Manager的地址。 连接信息 公网访问 是否开启公网访问开关。 连接信息 公网连接地址 开启公网访问后,连接实例的地址。 仅当开启了公网访问才显示该参数。 连接信息 Manager公网访问地址 开启公网访问后,连接Kafka Manager的地址。 仅当开启了公网访问才显示该参数。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        查看实例
      • 实例类型/版本
        其他新增命令 1. swapdb 用途:交换同一Redis实例内2个db的数据。 用法:swapdb dbindex1 dbindex2 2. zlexcount 用途:在有序集合中,返回符合条件的元素个数。 用法:zlexcount key min max 内存使用和性能改进 1. 使用更少的内存来存储相同数量的数据 2. 可以对使用的内存进行碎片整理,并逐渐回收 Redis5.0支持的新特性说明 DCS的Redis 5.0版本继承了Redis 4.0版本的所有功能增强以及新的命令,同时还兼容开源Redis 5.0版本的新增特性。 Stream数据结构 Stream是Redis 5.0引入的一种新数据类型,它是一个全新的支持多播的可持久化消息队列。 Redis Stream的结构示意图如下图所示,它是一个可持久化的数据结构,用一个消息链表,将所有加入进来的消息都串起来。 Stream数据结构具有以下特性 : 1. Stream中可以有多个消费者组。 2. 每个消费组都含有一个Lastdeliveredid,指向消费组当前已消费的最后一个元素(消息)。 3. 每个消费组可以含有多个消费者对象,消费者共享消费组中的Lastdeliveredid,相同消费组内的消费者存在竞争关系,即一个元素只能被其中一个消费者进行消费。 4. 消费者对象内还维持了一个Pendingids,Pendingids记录已发送给客户端,但是还没完成ACK(消费确认)的元素id。 5. Stream与Redis其他数据结构的比较,见下表。 Stream数据结构示意图 Stream与Redis现有数据结构比较 比较项 Stream List、Pub/Sub、Zset 复杂度 获取元素高效,复杂度为O(logN) List获取元素的复杂度为O(N) offset 支持offset,每个消息元素有唯一id。不会因为新元素加入或者其他元素淘汰而改变id。 List没有offset概念,如果有元素被逐出,无法确定最新的元素 持久化 支持消息元素持久化,可以保存到AOF和RDB中。 Pub/Sub不支持持久化消息。 消费分组 支持消费分组 Pub/Sub不支持消费分组 消息确认 支持ACK(消费确认) Pub/Sub不支持 性能 Stream性能与消费者数量无明显关系 Pub/Sub性能与客户端数量正相关 逐出 允许按时间线逐出历史数据,支持block,给予radix tree和listpack,内存开销少。 Zset不能重复添加相同元素,不支持逐出和block,内存开销大。 删除元素 不能从中间删除消息元素。 Zset支持删除任意元素 Stream相关命令介绍 接下来按照使用流程中出现的顺序介绍 Stream相关命令 。详细命令见下表 1. 首先使用XADD添加流元素,即创建Stream,添加流元素时可指定消息数量最大保存范围。 2. 然后通过XGROUP创建消费者组。 3. 消费者使用XREADGROUP指令进行消费。 4. 客户端消费完毕后使用XACK命令确认消息已消费成功。 Stream相关命令介绍 Stream的详细命令 命令 说明 语法 XACK 从流的消费者组的待处理条目列表 (简称PEL)中删除一条或多条消息。 XACK key group ID [ID ...] XADD 将指定的流条目追加到指定key的流中。 如果key不存在,作为运行这个命令的副作用,将使用流的条目自动创建key。 XADD key ID field string [field string ...] XCLAIM 在流的消费者组上下文中,此命令改变待处理消息的所有权,因此新的所有者是在命令参数中指定的消费者。 XCLAIM key group consumer minidletime ID [ID ...] [IDLE ms] [TIME msunixtime] [RETRYCOUNT count] [FORCE] [JUSTID] XDEL 从指定流中移除指定的条目,并返回成功删除的条目的数量,在传递的ID不存在的情况下, 返回的数量可能与传递的ID数量不同。 XDEL key ID [ID ...] XGROUP 该命令用于管理流数据结构关联的消费者组。使用XGROUP你可以:l 创建与流关联的新消费者组。l 销毁一个消费者组。l 从消费者组中移除指定的消费者。l 将消费者组的最后交付ID设置为其他内容。 XGROUP [CREATE key groupname idor] [SETID key idor ] [DESTROY key groupname] [DELCONSUMER key groupname consumername] XINFO 检索关于流和关联的消费者组的不同的信息。 XINFO [CONSUMERS key groupname] key key [HELP] XLEN 返回流中的条目数。如果指定的key不存在,则此命令返回0,就好像该流为空。 XLEN key XPENDING 通过消费者组从流中获取数据。检查待处理消息列表的接口,用于观察和了解消费者组中哪些客户端是活跃的,哪些消息在等待消费,或者查看是否有空闲的消息。 XPENDING key group [start end count] [consumer] XRANGE 返回流中满足给定ID范围的条目。 XRANGE key start end [COUNT count] XREAD 从一个或者多个流中读取数据,仅返回ID大于调用者报告的最后接收ID的条目。 XREAD [COUNT count] [BLOCK milliseconds] STREAMS key [key ...] ID [ID ...] XREADGROUP XREAD命令的特殊版本,指定消费者组进行读取。 XREADGROUP GROUP group consumer [COUNT count] [BLOCK milliseconds] STREAMS key [key ...] ID [ID ...] XREVRANGE 与XRANGE相同,但显著的区别是以相反的顺序返回条目,并以相反的顺序获取开始结束参数 XREVRANGE key end start [COUNT count] XTRIM XTRIM将流裁剪为指定数量的项目,如有需要,将驱逐旧的项目(ID较小的项目)。 XTRIM key MAXLEN [~] count 消息(流元素)消费确认 Stream与相比Pub/Sub,不仅增加消费分组模式,还支持消息消费确认。 当一条消息被某个消费者调用XREADGROUP命令读取或调用XCLAIM命令接管的时候, 服务器尚不确定它是否至少被处理了一次。 因此, 一旦消费者成功处理完一条消息,它应该调用XACK知会Stream,这样这个消息就不会被再次处理, 同时关于此消息的PEL(pendingids)条目也会被清除,从Redis服务器释放内存 。 某些情况下,因为网络问题等,客户端消费完毕后没有调用XACK,这时候PEL内会保留对应的元素ID。待客户端重新连上后,XREADGROUP的起始消息ID建议设置为00,表示读取所有的PEL消息及自lastid之后的消息。同时,消费者消费消息时需要能够支持消息重复传递。 ACK机制解读
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        实例类型/版本
      • 使用VPCEP实现跨VPC访问Kafka
        修改Kafka连接地址 1.在管理控制台左上角单击,选择“企业间件 > 分布式消息服务Kafka版”,进入分布式消息服务Kafka控制台页面。 2.单击Kafka集群名称,进入实例详情页面。 3.在“实例详情”页面的“高级配置”区域,单击“添加路由策略”,选择接入类型为跨VPC访问,填入advertised.listeners IP和Port端口,advertised.listeners IP为7和8中记录的节点IP,8为创建终端节点服务时填入的端口。修改完后,单击“保存”。其中dvertised.listeners IP中可填入域名,需客户端支持域名解析。 4.20240810前开通的实例,需要重启实例才能生效 图9 修改advertised.listeners IP 验证接口连通性 参考安全接入点接入,测试是否可以生产和消费消息。 测试接口连通性时,注意以下几点: 连接Kafka实例的地址为“advertiesd.listeners IP:port”,以图9为例,连接Kafka实例的地址为“10.254.0.74:9011,10.254.0.75:9011,10.254.0.88:9011”。 在Kafka实例安全组的入方向规则中放通对应端口,以及 XX.XX.XX.0/16网段的地址。 说明 XX.XX.XX.0/16是为VPC终端节点分配的网段,使用VPC终端节点需要放通此网段。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka
        配置Kafka网络连接
        使用VPCEP实现跨VPC访问Kafka
      • 为什么消费客户端频繁出现Rebalance?
        本节介绍Kafka消费客户端频繁出现Rebalance原因及解决方案 可能原因 可能是Kafka客户端版本过低或者Consumer没有独立线程维持心跳。 v0.10.2之前版本的客户端:Consumer没有独立线程维持心跳,而是把心跳维持与poll接口耦合在一起。其结果就是,如果用户消费出现卡顿,就会导致Consumer心跳超时,引发Rebalance。 v0.10.2及之后版本的客户端:如果消费时间过慢,超过一定时间(max.poll.interval.ms设置的值,默认5分钟)未进行poll拉取消息,则会导致客户端主动离开队列,而引发Rebalance。 解决方案 首先您需要了解以下几点信息: session.timeout.ms:心跳超时时间(可以由客户端自行设置)。 max.poll.records:每次poll返回的最大消息数量。 v0.10.2之前版本的客户端:心跳是通过poll接口来实现的,没有内置的独立线程。 v0.10.2及之后版本的客户端:为了防止客户端长时间不进行消费,Kafka客户端在v0.10.2及之后的版本中引入了max.poll.interval.ms配置参数。 (1)参考以下说明调整参数值: session.timeout.ms:v0.10.2之前的版本可适当提高该参数值,需要大于消费一批数据的时间,但不要超过30s,建议设置为25s;而v0.10.2及其之后的版本,保持默认值10s即可。 max.poll.records:降低该参数值,建议远远小于 的积。 max.poll.interval.ms:该值要大于 / ( )的值。 (2)尽量提高客户端的消费速度,消费逻辑另起线程进行处理。 (3)减少Group订阅Topic的数量,一个Group订阅的Topic最好不要超过5个,建议一个Group只订阅一个Topic。 (4)将客户端升级至0.10.2以上版本。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        为什么消费客户端频繁出现Rebalance?
      • 运维指导
        本章节主要介绍队列相关问题中有关运维指导的问题。 查看DLI队列负载 场景概述 如果需要确认DLI队列的运行状态,决定是否运行更多的作业时需要查看队列负载。 操作步骤 1. 在控制台搜索“云监控服务 CES”。 2. 进入CES后,在页面左侧“云服务监控”列表中,单击“数据湖探索”。 3. 选择队列进行查看。 如何判断当前DLI队列中的作业是否有积压? 问题描述 需要查看DLI的队列中作业状态为“提交中”和“运行中”的作业数,判断当前队列中的作业是否有积压。 解决方案 可以通过“云监控服务 CES”来查看DLI队列中不同状态的作业情况,具体操作步骤如下: 1. 在控制台搜索“云监控服务 CES”,进入云监控服务控制台。 2. 在左侧导航栏选择“云服务监控 > 数据湖探索”,进入到云服务监控页面。 3. 在云服务监控页面,“名称”列对应队列名称,单击对应队列名称,进入到队列监控页面。 4. 在队列监控页面,分别查看以下指标查看当前队列的作业运行情况。 a.“提交中作业数”:展示当前队列中状态为“提交中”的作业数量。 b.“运行中作业数”:展示当前队列中状态为“运行中”的作业数量。 c.“已完成作业数”:展示当前队列中状态为“已成功”的作业数量。 如何将老版本的Spark队列切换成通用型队列 当前DLI服务包括“SQL队列”和“通用队列”两种队列类型。 其中,“SQL队列”用于运行SQL作业,“通用队列”兼容老版本的Spark队列,用于运行Spark作业和Flink作业。 通过以下步骤,可以将老版本的“Spark队列”转换为新的“通用队列”。 1. 重新购买“通用队列”。 2. 将在旧的“Spark队列”中的作业迁移到新的“通用型队列”中,即在提交Spark作业时指定新的队列。 3. 释放旧的“Spark队列”,即删除或退订队列。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        队列相关问题
        运维指导
      • 弹性资源池队列管理
        场景 弹性资源池实际CUs 队列A资源分配 队列B资源分配 弹性资源池CU数分配说明 弹性资源池添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:00:009:00,最小CU是64,最大CU是128 192CUs 64CUs 128CUs 当弹性资源池实际cu大于等于两个队列最大 cu之和,队列都分配最大值 弹性资源池添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:00:009:00,最小CU是64,最大CU是128 96CUs 32CUs 64CUs 弹性资源池会优先满足两个队列的最小CU, 两个队列分配了最小CU后,无可用资源进行分配 弹性资源池添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:00:009:00,最小CU是64,最大CU是128 128CUs 32CUs64CUs 64CUs96CUs 弹性资源池会优先满足两个队列的最小CU,即队列A先分配32CUs,队列B分配64CUs,有剩余32CUs可供分配。 剩余部分按照队列的负载以及队列优先级进行分配。队列实际CU会在列出的范围内变化。
        来自:
        帮助文档
        数据湖探索
        用户指南
        弹性资源池
        弹性资源池基本操作
        弹性资源池队列管理
      • 客户端设置
        本节介绍天翼量子AI云电脑电脑客户端的基本设置操作。 1. 右上角功能总览 右上角功能:订购、个性装扮、更多、退出、全屏/窗口化功能。 2. 订购 如需订购天翼量子AI电脑公众版和政企版,点击“订购AI云电脑”入口,选择适合您需要的AI云电脑。 (1)公众版:适用于个人和家庭,一站式购买、管理、使用,即开即用,轻松上手,满足日常办公娱乐多种需求。 (2)政企版:适用于企业和组织,由管理员分配电脑及密码,集中管控,按需创建,广泛应用于安全办公、金融、教育等领域。 3. 个性装扮 如需设置个性装扮,支持浅漾蓝、典雅灰、极光紫、幻彩沙、金蓝叙、商务蓝六大主题。 4. 更多菜单 点击“三”展开更多功能面板,分别是个人信息、安全中心、家庭管理、消息中心、设置、报障、帮助手册、关于(版本号)。 5.
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南(新)
        客户端设置
      • 产品功能
        函数实例管理 功能 功能描述 健康检查 支持周期性健康检查,避免异常实例处理请求。 单实例多并发 支持设置单实例并发度大于1,以提高资源利用率和减少冷启动。 预留实例 除了按量实例外,支持用户按照指定的策略灵活配置预留实例,有效应对对冷启动速率敏感的特殊业务场景。 函数调用 功能 功能描述 同步调用 函数计算会运行触发的函数并等待响应,完成后返回执行结果,适用于请求处理耗时短,或者调用方需要等待响应结果的场景。 异步调用 系统接收异步调用请求后,会立即返回响应,请求将被可靠处理,适用于请求处理耗时比较长,或者不关心响应结果的场景。 异步任务 当您发起异步调用函数时,请求会被持久化并保存在函数计算的内部队列中,以确保被可靠地处理。若需追踪异步调用的状态并增强任务的控制和可观测性,您可以选择使用任务模式来管理这些异步请求。 触发器管理 功能 功能描述 HTTP触发器 给函数配置HTTP触发器,函数响应HTTP请求事件,执行指定的逻辑。 定时触发器 给函数配置定时器触发器,函数可以根据定时器配置周期性执行业务逻辑。 Kafka触发器 给函数配置Kafka触发器,函数可以监听Kafka消息来执行业务逻辑。 RocketMQ触发器 给函数配置RocketMQ触发器,函数可以监听RocketMQ消息来执行业务逻辑。 日志触发器 给函数配置日志触发器,函数可以根据日志的写入来执行业务逻辑。 对象存储触发器 给函数配置对象存储触发器,函数可以监听对象存储的创建、删除、更新等事件来执行业务逻辑。 云原生网关触发器 给函数配置云原生网关触发器,函数可以监听网关的事件来执行业务逻辑。
        来自:
        帮助文档
        函数计算
        产品介绍
        产品功能
      • 创建Flink SQL作业
        参数 参数说明 所属队列 默认选择“共享队列”,用户也可以选择自定义的独享队列。 说明 当子用户在创建作业时,子用户只能选择已经被分配的队列。 当所选择队列的剩余容量不能满足作业需求时,系统会自动扩容。当队列空闲时,系统也会自动缩容。 UDF Jar 选择“独享队列”时可配置该参数。 用户自定义UDF文件,在选择UDF Jar之前需要将对应的jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,具体操作请参考 CU数量 CU数量为DLI的计算单元数量和管理单元数量总和,1CU1核4G。 当前配置的CU数量为运行作业时所需的CU数,不能超过其绑定队列的CU数量。 管理单元 管理单元CU数量。 并行数 并行数是指同时运行Flink SQL作业的最大任务数。适度增加并行数会提高作业整体算力,但也须考虑线程增多带来的切换开销。 说明 最大并行数不能大于计算单元(CU数量管理单元)的4倍。 该界面并行数优先级低于代码中并行数设置。 TaskManager配置 用于设置TaskManager资源参数。 勾选后需配置下列参数: “单TM所占CU数”:每个TaskManager占用的资源数量。 “单TM Slot”:每个TaskManager包含的Slot数量。 OBS桶 选择OBS桶用于保存用户作业日志信息、checkpoint等信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 保存作业日志 设置是否将作业运行时的日志信息保存到OBS。日志信息的保存路径为:“桶名/jobs/logs/作业id开头的目录”。在作业列表中,单击对应的作业名称,在“运行日志”页签,可以单击页面提供的OBS链接跳转至对应的路径下。 注意 该参数建议勾选,否则作业运行完成后不会生成运行日志,后续如果作业运行异常则无法获取运行日志进行定位。 勾选后需配置下列参数: “OBS桶”:选择OBS桶用于保存用户作业日志信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 作业异常告警 设置是否将作业异常告警信息,如作业出现运行异常或者欠费情况,以SMN的方式通知用户。 勾选后需配置下列参数: “SMN主题”: 选择一个自定义的SMN主题。如何自定义SMN主题,请参见《消息通知服务用户指南》中“创建主题”章节。 开启Checkpoint 设置是否开启作业快照,开启后可基于Checkpoint(一致性检查点)恢复作业。 勾选后需配置下列参数: “Checkpoint间隔”:Checkpoint的时间间隔,单位为秒,输入范围1~999999,默认值为30s。 “Checkpoint模式”:支持如下两种模式: − At least once:事件至少被处理一次。 − Exactly once:事件仅被处理一次。 “OBS桶”:选择OBS桶用于保存用户Checkpoint。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 Checkpoint保存路径为:“桶名/jobs/checkpoint/作业id开头的目录”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 异常自动重启 设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 勾选后需配置下列参数: “异常重试最大次数”:配置异常重试最大次数。单位为“次/小时”。 − 无限:无限次重试。 − 有限:自定义重试次数。 “从Checkpoint恢复”:需要同时勾选“开启Checkpoint”才可配置该参数。 空闲状态保留时长 用于清除GroupBy或Window经过最大保留时间后仍未更新的中间状态,默认设置为1小时。 脏数据策略 选择处理脏数据的策略。支持如下三种策略:“忽略”,“抛出异常”和“保存”。 说明 “保存”是指将脏数据保存到OBS桶中。 脏数据转储地址 “脏数据策略”选择“保存”时,配置该参数。单击地址框选择保存脏数据的OBS路径。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink SQL作业
      • 使用场景二:配置弹性资源池队列扩缩容策略
        注意事项 在全天的任意一个时间段内,弹性资源池中所有队列的最小CU数之和需要小于等于弹性资源池的最小CU数。 在全天的任意一个时间段内,弹性资源池中任意一个队列的最大CU必须小于等于弹性资源池的最大CU。 同一队列不同扩缩容策略的时间段区间不能有交集。 弹性资源池队列中的扩缩容策略时间段仅支持整点的时间段设置,并且包含设置的开启时间,不包含设置的结束时间,例如设置时间段0009,则时间段范围为:[00:00,09:00)。默认的扩缩容策略不支持时间段配置修改。 弹性资源池扩缩容策略生效规则为:在任意一个时间段周期内,优先满足所有队列的最小CU数。剩余的CU(弹性资源池最大CU所有队列的最小CU数之和)则根据配置的优先级顺序分配: −如果队列的优先级不同,根据配置的优先级顺序分配,直到剩余的CU数分配完成。 −如果队列的优先级相同,资源会被随机分配到某一队列,如果分配后资源还有剩余会随机分配到剩下的某一队列中,直到剩余的CU数分配完成。 弹性资源池扩缩容CU分配场景说明 场景 弹性资源池CU数分配说明 :: 弹性资源池当前最大CU为256CU,添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:优先级5,时间段:00:009:00,最小CU是32,最大CU是128 l 队列B扩缩容策略:优先级10,时间段:00:009:00,最小CU是64,最大CU是128 到了00:009:00时间段: 1. 弹性资源池优先满足两个队列的最小CU,队列A先分配32CU,队列B分配64CU,剩余CU数为160CU:弹性资源池的最大CU两个队列的最小CU之和2563264160CU。 2. 剩余CU数根据优先级高低来分配,因为队列B的优先级高于队列A,则优先将64CU分配给队列B,剩余的96CU全部分配给队列A。 弹性资源池当前最大CU为96CU,添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:优先级5,时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:优先级10,时间段:00:009:00,最小CU是64,最大CU是128 到了00:009:00时间段: 1. 弹性资源池优先满足两个队列的最小CU,队列A先分配32CU,队列B分配64CU,剩余CU数为0CU:弹性资源池的最大CU两个队列的最小CU之和9632640CU。 2. 因为剩余的CU数已经没有,则停止分配。 弹性资源池当前最大CU为128CU,添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:优先级5,时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:优先级10,时间段:00:009:00,最小CU是64,最大CU是128 到了00:009:00时间段: 1. 弹性资源池优先满足两个队列的最小CU,队列A先分配32CU,队列B分配64CU,剩余CU数为32CU:弹性资源池的最大CU两个队列的最小CU之和128326432CU。 2. 按照优先级,则优先将剩余的32CU分配给B队列后停止分配。 弹性资源池当前最大CU为128CU,添加了两个队列,分别为队列A和队列B。两个队列设置的扩缩容策略如下: l 队列A扩缩容策略:优先级5,时间段:00:009:00,最小CU是32,最大CU是64 l 队列B扩缩容策略:优先级5,时间段:00:009:00,最小CU是64,最大CU是128 到了00:009:00时间段: 1. 弹性资源池优先满足两个队列的最小CU,队列A先分配32CU,队列B分配64CU,剩余CU数为32CU:弹性资源池的最大CU两个队列的最小CU之和128326432CU。 2. 因为两个队列的优先级相同,则剩余32CU随机分配给两个队列。
        来自:
        帮助文档
        数据湖探索
        用户指南
        弹性资源池
        使用前必读
        使用场景二:配置弹性资源池队列扩缩容策略
      • 删除Topic
        本文主要介绍 删除Topic。 本章节指导您删除Topic,请根据实际情况选择以下任意一种方式: 在控制台删除 在Kafka客户端上删除 前提条件 已创建Kafka实例,并且已创建Topic。 只有运行中的实例才可以删除Topic。 在控制台删除 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,删除Topic。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“删除Topic”。 在待删除Topic所在行,单击“更多 > 删除”。 步骤 7 在“删除Topic”对话框中,单击“是”,确认删除Topic。 在Kafka客户端上删除 Kafka客户端版本为2.2以上 时,支持通过kafkatopics.sh删除Topic。 未开启SASL的Kafka实例,在“/{命令行工具所在目录}/kafka{version}/bin/”目录下,通过以下命令删除Topic。 ./kafkatopics.sh bootstrapserver {brokerip}:{port} delete topic {topicname} 已开启SASL的Kafka实例,通过以下步骤删除Topic。 (可选)如果已经设置了SSL证书配置,请跳过此步骤。否则请执行以下操作。在Kafka客户端的“/config”目录中创建“ssluserconfig.properties”文件,参考步骤3增加SSL证书配置。 在“/{命令行工具所在目录}/kafka{version}/bin/”目录下,通过以下命令删除Topic。 ./kafkatopics.sh bootstrapserver {brokerip}:{port} delete topic {topicname} commandconfig ./config/ssluserconfig.properties
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        删除Topic
      • 分区平衡
        本节介绍Kafka分区平衡功能 场景描述 分区平衡是指将分区的副本重新分配到不同的节点上,解决Kafka节点负载不均衡问题。 需要进行分区平衡的场景如下: 实例扩容节点个数后,新节点没有任何负载,需要将原有Topic分区的副本迁移到新节点上。 将高负载节点上的Leader分区切换为Follower分区。 增加/减少副本数量。 分布式消息服务Kafka版控制台提供两种分区平衡的方法:自动平衡和手动平衡,建议选择自动平衡,确保分区Leader的均匀分布。 操作影响 对数据量大的Topic进行分区平衡,会占用大量的网络和存储带宽,业务可能会出现请求超时或者时延增大,建议在业务低峰期时操作。对Topic进行分区平衡前,根据Kafka实例规格对比当前实例负载情况,评估是否可以进行分区平衡,建议预留足够的带宽进行分区平衡,CPU使用率在90%以上时,不建议进行分区平衡。 带宽限制是指设定Topic进行副本同步的带宽上限,确保不会对该实例上的其他Topic造成流量冲击。但需要注意,带宽限制不会区分是正常的生产消息造成的副本同步还是分区平衡造成的副本同步,如果带宽限制设定过小,可能会影响正常的生产消息,且可能会造成分区平衡一直无法结束。 分区平衡任务启动后,不能删除正在进行分区平衡的Topic,否则会导致分区平衡任务无法结束。 分区平衡任务启动后,无法修改Topic的分区数。 分区平衡任务启动后,无法手动停止任务,需要等到任务完成。 分区平衡后Topic的metadata会改变,如果生产者不支持重试机制,会有少量的请求失败,导致部分消息生产失败。 数据量大的Topic进行分区平衡的时间会比较长,建议根据Topic的消费情况,适当调小Topic老化时间,使得Topic的部分历史数据被及时清理,加快迁移速度。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        分区平衡
      • 编辑队列
        本文为您介绍如何在科研助手中编辑队列。 开始编辑 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【队列管理】。 3. 单击对应队列右侧的【编辑】,即可对该队列进行编辑操作。 编辑共享资源池队列 共享资源池的队列的【编辑队列】页面,队列基础信息不允许修改,只能对队列的高级配置进行修改。 【基础信息】 参数 说明 队列名称 队列的名称。 状态 队列的状态,共有4种,分别为:开启、关闭、关闭中以及未知。 资源池 队列所属的资源池名称。 资源池类型 共享资源池。 创建时间 队列的创建时间。 【高级配置】 参数 说明 资源上限 该队列的资源的上限,队列中的正在运行的各种资源累计不能超过限制资源的上限,若应用超出该上限,超出部分的资源将不会被调度成功。 完成编辑 点击【立即编辑 】,完成队列的编辑;点击【取消】,放弃队列的编辑。
        来自:
        帮助文档
        科研助手
        用户指南
        资源配额
        队列管理
        编辑队列
      • 切换Postgresql实例的主备实例
        接口描述 本接口可用于切换非基础版Postgresql实例的主备实例,切换主备实例后,原来的备实例成为主实例并承担业务流量。 请求方法 POST URI /v1/node/switch 请求参数 名称 位置 类型 必选 说明 prodInstId query Long 是 实例id nodeId query Long 是 节点id 响应参数 名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 所有的返回信息都以JSON形式保存 示例 请求示例 /v1/node/switch { "prodInstId":1, "nodeId":1 } 响应示例 { "message": "SUCCESS", "returnObj": null, "statusCode": 800 } 错误码 访问ErrorCodes说明文档查看更多错误码。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        主备高可用和数据复制方式
        切换Postgresql实例的主备实例
      • DMS RabbitMQ帐号密码规范
        本章节主要介绍账号密码规范问题。 DMS RabbitMQ帐号密码规范 DMS帐号密码必须满足以下复杂度要求: 密码不能为空。 输入长度为8到32位的字符串。 必须包含如下四种字符中的三种组合: 小写字母 大写字母 数字 特殊字符包括(~!@$%^&()+[{}]:'", /?) 不能以开头。 密码不能和帐号及帐号的倒序相同。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        DMS RabbitMQ帐号密码规范
      • 设置实例公网访问
        本文主要介绍设置实例公网访问。 当业务不再使用公网访问功能时,也可以关闭实例的公网访问功能。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例的“基本信息”页签。 步骤 5 设置公网访问。 说明 只有处于“运行中”状态的Kafka实例支持修改公网访问配置。 Kafka实例只支持绑定IPv4弹性IP地址。 开启公网访问。 在“公网访问”后,单击,开启公网访问。在“弹性IP地址”中,为每个代理设置对应的弹性IP地址,单击。 您可以在实例的“后台任务管理”页面,查看当前任务的操作进度。任务状态为“成功”,表示操作成功。 图 公网访问 开启公网访问后,需要设置对应的安全组规则,才能成功连接Kafka。连接Kafka的具体操作请参考连接Kafka。 表安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 9094 0.0.0.0/0 通过公网访问Kafka(关闭SSL加密)。 入方向 TCP 9095 0.0.0.0/0 通过公网访问Kafka(开启SSL加密)。 关闭公网访问。 在“公网访问”后,单击,完成公网访问的关闭。 您可以在实例的“后台任务管理”页面,查看当前任务的操作进度。任务状态为“成功”,表示操作成功。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        设置实例公网访问
      • 队列管理
        前置条件 1.账号为主账号或者角色为IAM管理员的子账号 2.开通专属集群 操作步骤 队列旨在帮助用户精细化管理资源,队列是一个资源池中部分资源的集合,用于工作负载,比如训练任务、在线服务的运行,一个资源池中可创建多个队列。用户购买资源池后可将资源池划分成若干个队列,并使用队列中的资源处理不同业务的工作负载。 打开队列管理,顶部导航栏下拉选择集群的位置,选择到自己所有的专属集群。 【创建队列】操作 点击【创建队列】按钮,进入创建队列页面,填写相应信息。 说明 负载类型:选择的负载类型,代表对应的任务可以提交到该队列,占用该队列资源。比如某队列,负载类型选择了大模型微调、在线服务,则代表这两类任务可以提交到该队列,其他任务比如IDE、大模型评估等不可以提交到该队列。 实例规格和实例数:共同决定了该队列的资源额度上限。 管理员和成员:管理员的权限高于成员,成员只能使用该队列的资源,管理员除了能使用资源以外,还能管理该队列,具体包含管理用户,编辑,更配、启动/停止、删除操作。 【查询】操作 创建好的队列会出现在队列列表里,可通过负载类型、状态筛选,也可以通过队列ID、名称搜索。
        来自:
        帮助文档
        训推服务
        用户指南
        管理中心
        队列管理
      • 弹性资源池关联队列
        本章节主要介绍如何操作弹性资源池关联队列。 操作场景 参考创建弹性资源池创建完弹性资源池后,您可以将已有的队列关联至弹性资源池,即可将弹性资源池的资源用于后续作业的运行 您可以在弹性资源池页面通过“关联队列”将队列添加到弹性资源池。还可以在队列管理页面分配队列至弹性资源池。 说明 弹性资源池Flink版本只支持1.10及其以上版本,如果准备分配到弹性资源池的作业使用Flink1.7版本可能会出现兼容性问题,需要提前做好Flink版本适配。 约束与限制 弹性资源池和队列均是可用状态。 队列是按需专属队列。 队列和弹性资源池状态正常,资源未被冻结。 弹性资源池仅支持关联同一企业项目的队列资源。 在弹性资源池页面关联队列 1.在左侧导航栏单击“资源管理 > 弹性资源池”,可进入弹性资源池管理页面。 2.选择要操作的弹性资源池,在“操作”列,单击“更多 > 关联队列”。 3.在“关联队列”界面,选择待添加的队列,单击“确定”完成操作。 在队列管理页面分配队列至弹性资源池 1.在左侧导航栏单击“资源管理 > 队列管理”,可进入队列管理页面。 2.选择要操作的队列,在“操作”列,单击“更多 > 分配至弹性资源池”。 3.选择资源池,单击“确定”完成操作。
        来自:
        帮助文档
        数据湖探索
        用户指南
        弹性资源池
        弹性资源池基本操作
        弹性资源池关联队列
      • 队列权限管理
        本章节主要介绍队列权限管理。 队列权限管理操作场景 针对不同用户,可以通过权限设置分配不同的队列,不同用户之间的作业效率互不影响,保障作业性能。 管理员用户和队列的所有者拥有所有权限,不需要进行权限设置且其他用户无法修改其队列权限。 队列权限相关操作步骤 1. 在DLI管理控制台的左侧,选择“资源管理 > 队列管理”。 2. 选择待设置的队列,单击其“操作”列中的“权限管理”。“用户权限信息”区域展示了当前具备此队列权限的用户列表。 权限设置有3种场景:为新用户赋予权限,为已有权限的用户修改权限,回收某用户具备的所有权限。 为新用户赋予权限 新用户指之前不具备此队列权限的用户。 a. 单击“权限信息”右侧的“授权”,弹出“授权”对话框。 b. 填写“用户名”,并勾选对应权限。 c. 单击“确定”,完成新用户的添加。 待设置的参数说明详见下表所示。 详见下表:参数说明 参数名称 描述 用户名 被授权的用户名称。 说明 该用户名称是已存在的IAM用户名称且该用户登录过DLI管理控制台。 权限设置 删除队列:删除此队列。 提交作业:向此队列提交作业。 终止作业:终止提交到此队列的作业。 赋权:当前用户可将队列的权限赋予其他用户。 回收:当前用户可回收其他用户具备的该队列的权限,但不能回收该队列所有者的权限。 查看其他用户具备的权限:当前用户可查看其他用户具备的该队列的权限。 重启队列权限:重启此队列的权限。 规格变更:修改队列规格的权限。 为已有权限的用户赋予权限或回收权限。 a. 在对应队列“权限信息”区域的用户列表中,选择需要修改权限的用户,在“操作”列单击“权限设置”。 b. 在队列“权限设置”对话框中,对当前用户具备的权限进行修改。详细权限描述如队列权限管理章节参数说明表所示。 当“权限设置”中的选项为灰色时,表示您不具备修改此队列权限的权限。可以向管理员用户、队列所有者等具有赋权权限的用户申请“队列的赋权”和“队列权限的回收”权限。 c. 单击“确定”完成权限设置。 回收某用户具备的所有权限。 在对应队列“权限信息”区域的用户列表中,选择需要删除权限的用户,在“操作”列单击“回收用户权限”。在“回收用户权限”对话框中单击“确定”后,此用户将不具备该队列的任意权限。
        来自:
        帮助文档
        数据湖探索
        用户指南
        队列管理
        队列权限管理
      • 清除队列配置
        本章节主要介绍清除队列配置。 操作场景 当队列不再需要某个资源池的资源,或资源池需要与队列取消关联关系时,用户可以在MRS Manager清除队列配置。清除队列配置即取消队列在此资源池中的资源容量策略。 前提条件 如果队列需要清除与某个资源池的绑定关系,该资源池不能作为队列的默认资源池,需要先将队列的默认资源池更改为其他资源池,请参见配置队列。 操作步骤 在MRS Manager界面,单击“租户管理”。 1. 单击“动态资源计划”页签。 2. 在“资源池”选择指定的资源池。 3. 在“资源分配”列表指定队列的“操作”列,单击“清除”。 在“清除队列配置”中单击“确定”,清除队列在当前资源池的配置。 说明 如果用户未配置队列的资源容量策略,则清除功能默认不可用。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        租户管理
        清除队列配置
      • 修改队列网段
        本章节主要介绍修改队列网段。 使用增强型跨源时,如果DLI队列的网段和用户数据源的网段发生冲突,您可以通过修改网段操作更改队列的网段。 说明 如果待修改网段的队列中有正在提交或正在运行的作业,或者改队列已经绑定了增强型跨源,将不支持修改网段操作。 修改队列网段步骤 1. 在DLI管理控制台左侧,选择“资源管理 > 队列管理”。 2. 选择待修改的队列,单击“操作”列“更多”中的“修改网段”。 3. 填写需要的网段后,单击“确定”。队列修改网段成功后,需要等待5~10分钟,待队列所属集群资源重新拉起后再运行作业。
        来自:
        帮助文档
        数据湖探索
        用户指南
        队列管理
        修改队列网段
      • 查看队列详情
        本文为您介绍如何在科研助手中查看队列详情。 查看步骤 1. 登录科研助手管理控制台 2. 在控制台左侧导航栏中,选择【资源配额】中的【队列管理】。 3. 单击队列名称 或者右侧的【查看 】按钮,即可查看队列的详细信息。 以下为【队列详情】页面展示的字段说明: 共享资源池的队列 【基础信息】: 参数 说明 队列名称 队列的名称。 状态 队列的状态,共有4种,分别为:开启、关闭、关闭中以及未知。 资源池 队列所属的资源池的名称。 资源池类型 共享资源池 创建时间 队列的创建时间。 【高级配置】: 参数 说明 资源上限 该队列的资源的上限,队列中的正在运行的各种资源累计不能超过限制资源的上限,若应用超出该上限,超出部分的资源将不会被调度成功。 【队列任务总览】: 参数 说明 运行中 作业在该队列中创建的强关联Pod组合处于运行中状态的数量。 等待中 作业在该队列中创建的强关联Pod组合处于等待中状态的数量。 排队中 作业在该队列中创建的强关联Pod组合处于排队中状态的数量。 未知 作业在该队列中创建的强关联Pod组合处于未知状态的数量。
        来自:
        帮助文档
        科研助手
        用户指南
        资源配额
        队列管理
        查看队列详情
      • 迁移上云
        分布式消息服务Kafka提供全托管、免运维的迁移上云服务,用于自建实例或跨云云实例与分布式消息服务Kafka实例之间的数据同步。本文介绍迁移上云的源实例类型、使用限制、跨VPC数据同步以及使用流程。 背景信息 迁移上云可以把源云分布式消息服务Kafka集群的元数据(Topic和Group配置信息)、消息数据和点位信息同步到目标集群,迁移完成后目标集群的元数据与原集群的元数据保持一致,并且支持持续更新和完成后自动停止任务。 使用限制 1. 此功能不收费,会占用当前实例的服务器资源,请结合业务流量和服务器资源占用情况,在合理的情况下进行迁移。 2. 单机版不支持迁移。 计费说明 分布式消息服务Kafka的迁移上云组件处于公测阶段,不会在分布式消息服务Kafka侧产生费用。同时,天翼云不承诺迁移的SLA,使用迁移上云所依赖的其他产品的SLA和费用说明请以对应产品为准。 环境要求 如果您需要通过迁移上云功能将公网的自建实例的数据同步到分布式消息服务Kafka或者跨地域将某个VPC内的分布式消息服务Kafka的数据同步到另一个VPC的分布式消息服务Kafka,您需要为该实例绑定弹性IP开启公网访问,然后在公网上进行数据同步。 如果您需要将某个VPC内的数据通过迁移上云功能同步到另一个VPC的分布式消息服务Kafka,需要手动打通VPC。具体步骤,请参见:使用VPCEP实现跨VPC访问Kafka
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        集群迁移
        迁移上云
      • 清除队列容量配置
        本章节主要介绍翼MapReduce的清除队列容量配置操作。 操作场景 当队列不再需要某个资源池的资源,或资源池需要与队列取消关联关系时,管理员可以在FusionInsight Manager清除队列配置。清除队列配置即取消队列在此资源池中的资源容量策略。 前提条件 如果队列需要清除与某个资源池的绑定关系,该资源池不能作为队列的默认资源池,需要先将队列的默认资源池更改为其他资源池,请参见配置队列。 操作步骤 1. 登录FusionInsight Manager界面。 2. 选择“租户资源 > 动态资源计划”。 3. “集群”参数选择待操作的集群名称,然后在“资源池”,选择待操作的资源池。 4. 在资源分配表格,指定租户资源名的“操作”列,单击“清除”。 5. 在弹出的对话框中单击“确定”,清除队列在当前资源池的配置。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Capacity调度器的租户业务
        管理资源
        清除队列容量配置
      • 删除队列
        本章节主要介绍删除队列。 根据实际使用情况,您可以通过删除操作释放队列。 说明 如果待删除的队列中有正在提交或正在运行的作业,将不支持删除操作。 删除队列不会导致您数据库中的表数据丢失。 删除队列步骤 1. 在DLI管理控制台左侧,选择“资源管理 > 队列管理”。 2. 选择待删除的队列,单击“操作”列的“删除”删除。 说明 如果“操作”列的“删除”为灰色,表示当前用户没有删除队列的权限。您可以向管理员申请删除队列的权限。 3. 在弹出的确认对话框中,单击“是”。
        来自:
        帮助文档
        数据湖探索
        用户指南
        队列管理
        删除队列
      • 1
      • ...
      • 12
      • 13
      • 14
      • 15
      • 16
      • ...
      • 240
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      公共算力服务

      模型推理服务

      智算一体机

      人脸实名认证

      推荐文档

      创建弹性伸缩组

      设置告警规则

      FTP访问

      产品定义

      代金券使用后是否可以退换?

      消息者消费者

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号