爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微消息队列MQTT版_相关内容
      • DLI控制台总览
        本章节主要介绍数据湖探索(DLI)的“总览”页面。 数据探索服务控制台总览页为您提供数据湖探索服务使用流程及队列资源使用情况总览。 使用流程简介 数据湖探索服务使用流程简介: 1.创建队列 队列是DLI的计算资源:SQL队列和通用队列。SQL队列支持提交Spark SQL作业,通用队列支持Spark程序、Flink opensource SQL、Flink Jar作业。 2.准备数据 通常在执行Spark SQL作业前,需要创建数据库和表;在执行Spark作业、Flink Jar作业需要上传程序包。 3.编辑提交作业 完成作业参数的编辑后,提交作业。 4.查看作业状态 在作业管理页面可以查看作业的执行状态。 总览队列使用时长 总览页面支持查看队列的使用时长。 查看所有队列的使用时长:总览所有队列资源的使用情况 查看单队列的使用时长:单队列近期的使用情况。
        来自:
        帮助文档
        数据湖探索
        用户指南
        DLI控制台总览
      • 步骤一:准备环境
        本文主要介绍分布式消息服务RabbitMQ的准备环境。 虚拟私有云 虚拟私有云(Virtual Private Cloud,以下简称VPC)为RabbitMQ专享版实例提供一个隔离的、用户自主配置和管理的虚拟网络环境。 1. 在创建RabbitMQ专享版实例前,确保已存在可用的虚拟私有云和子网。 创建方法,请参考创建虚拟私有云和子网。如果您已有虚拟私有云和子网,可重复使用,不需要多次创建。 在创建VPC和子网时应注意如下要求: 创建的VPC与使用的RabbitMQ服务应在相同的区域。 创建VPC和子网时,如无特殊需求,配置参数使用默认配置即可。 2. 在创建RabbitMQ专享版实例前,确保已存在可用的安全组。 创建方法,请参考创建安全组。如果您已有安全组,可重复使用,不需要多次创建。 使用RabbitMQ实例前,添加表1所示安全组规则,其他规则请根据实际需要添加。 表1 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 5672 0.0.0.0/0 访问RabbitMQ实例(关闭SSL加密) 入方向 TCP 5671 0.0.0.0/0 访问RabbitMQ实例(开启SSL加密) 入方向 TCP 15672 0.0.0.0/0 访问Web界面UI地址(关闭SSL加密) 入方向 TCP 15671 0.0.0.0/0 访问Web界面UI地址(开启SSL加密) 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问RabbitMQ实例,无需添加上表中的规则。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤一:准备环境
      • 事件模式
        从事件源接收的事件 事件模式 模式过滤后的事件 plaintext { "id": "f36b49b668914b59b11cbf689xxxx712", "source": "ctyun:kafka", "type": "ctyun:kafka:Topic:Message", "specversion": "1.0", "datacontentype": "application/json; charsetutf8", "subject": "ctyun:kafka:75dcxx1eb5:topic:source1", "time": "20241203T09:48:00.696Z", "data": { "key": "test2", "value": "test1" } } plaintext { "id": "f36b49b668914b59b11cbf689xxxx713", "source": "ctyun:rocketmq", "type": "ctyun:rocketmq:Topic:Message", "specversion": "1.0", "datacontentype": "application/json; charsetutf8", "subject": "ctyun:rocketmq:75dcxx1eb5:topic:source1", "time": "20241203T09:48:00.696Z", "data": { "key": "test2", "value": "test1" } } plaintext { "source": [ { "exact": [ "ctyun:kafka", "ctyun:mqtt" ] } ] } plaintext { "id": "f36b49b668914b59b11cbf689xxxx712", "source": "ctyun:kafka", "type": "ctyun:kafka:Topic:Message", "specversion": "1.0", "datacontentype": "application/json; charsetutf8", "subject": "ctyun:kafka:75dcxx1eb5:topic:source1", "time": "20241203T09:48:00.696Z", "data": { "key": "test2", "value": "test1" } }
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件模式
      • 节点重启后消费者如何重连
        本文介绍节点重启后消费者如何重连,以Java中使用的RabbitMQ客户端amqpclient为例。 amqpclient自带重连机制,但是自带的重连机制只会重试一次,一次连不上后就不会再执行了,这时如果消费者没有做额外的重试机制,那么这个消费者就彻底丧失的消费能力。 amqpclient在节点断连后,根据与通道建立的节点不同,产生不同的错误。 如果通道连接的是队列所在的节点,消费者就会收到一个shutdown信号,这时amqpclient的重连机制就会生效,尝试重新连接服务端。如果连上了,这个通道就会继续连接消费。如果连不上,就会执行channel.close方法,关闭这个通道。 如果通道连接的不是队列所在的节点,消费者不会触发关闭动作,而是由服务端发送的一个取消动作,这个动作对amqpclient来说并不是异常行为,所以日志上不会有明显的报错,但是连接最终还是会关闭。 amqpclient出现上面两种错误时,会分别回调handleShutdownSignal以及handleCancel方法,您可以通过重写这两种方法,在回调时执行重写的重连逻辑,就能在通道关闭后重新创建消费者的新通道继续消费。 以下提供一个简单的代码示例,能够解决上面的两种错误,实现消费者的持续消费。 import com.rabbitmq.client.; import java.io.IOException; import java.nio.charset.StandardCharsets; import java.util.concurrent.TimeoutException; public class MyRabbitConsumer { public static void main(String... args) throws IOException, TimeoutException { ConnectionFactory factory new ConnectionFactory(); factory.setHost("192.168.x.x"); factory.setPort(5672); factory.setUsername("name"); factory.setPassword("password"); Connection connection factory.newConnection(); createNewConnection(connection); } public static void createNewConnection(Connection connection) { try { Channel channel connection.createChannel(); channel.basicQos(64); channel.basicConsume("queue1", false, new CustomConsumer(channel, connection)); } catch (Exception e) { createNewConnection(connection); } } static class CustomConsumer implements Consumer { private final Channel channel; private final Connection connection; public CustomConsumer(Channel channel, Connection connection) { channel channel; connection connection; } @Override public void handleConsumeOk(String consumerTag) {} @Override public void handleCancelOk(String consumerTag) {} @Override public void handleCancel(String consumerTag) throws IOException { createNewConnection(connection); } @Override public void handleShutdownSignal(String consumerTag, ShutdownSignalException sig) { createNewConnection(connection); } @Override public void handleRecoverOk(String consumerTag) {} @Override public void handleDelivery(String consumerTag, Envelope env, AMQP.BasicProperties prop, byte[] body) throws IOException { String message new String(body, StandardCharsets.UTF8); System.out.println("收到消息: " + message); channel.basicAck(env.getDeliveryTag(), false); } } }
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        节点重启后消费者如何重连
      • 全链路灰度-入口为应用
        本章节主要围绕以自行部署的网关应用为入口,介绍全链路灰度的最佳实践 概述 本文以consumer和provider应用为例,分别发布consumerv1,providerv1和 consumerv2,providerv2两个版本的应用。同时以微服务云应用平台部署的网关作为入口应用,泳道规则设置为参数version2时,请求路由到consumerv2,providerv2。 前提条件 需开通微服务治理中心企业版。 操作流程 创建并发布V1版本应用实例 创建providerv1 和 consumerv1 应用实例,需勾选上接入微服务服务治理中心。 发布网关应用 创建并发布gateway应用实例,需勾选上接入微服务服务治理中心。 通过网关访问consumer和provider 进入gateway应用终端,通过curl命令访问网关,curl podip:27180/nacos/consumer/callProvider。 根据返回信息可以看到providerv1应用pod的IP,到这可以确定 gateway>consumerv1>providerv1 链路是通的。 创建泳道组及泳道 1. 创建泳道组 在左侧导航栏,选择服务治理 > 全链路流量控制,点击创建泳道组及泳道。 入口类型选择:在MSAP部署的应用/网关,入口应用选择:msegateway 2. 创建分流泳道 路由规则选择上面步骤在网关中创建的路由规则,条件列表中,参数类型选择Query,参数填version,条件选择等于,值填写2。 创建完成后,可以看到泳道状态是关闭的。此时规则还未生效。
        来自:
        帮助文档
        微服务云应用平台
        最佳实践
        全链路灰度-入口为应用
      • 产品服务协议
        管理工具 天翼云API网关服务协议 云迁移工具RDA服务协议 天翼云云审计服务协议 天翼云应用性能管理服务协议 天翼云主机迁移服务产品服务协议 安全 数据加密产品服务协议 天翼云数据库安全服务协议 天翼云WEB应用防火墙(企业版)服务协议 天翼云服务器安全卫士服务协议 天翼云渗透测试服务协议 [天翼云[SSL VPN]服务协议]( 云堤域名无忧服务协议 天翼云网页防篡改服务协议 天翼云日志审计服务协议 Web应用防火墙(边缘云版)服务协议 天翼云DDoS高防IP服务协议 天翼云终端杀毒服务协议 云解析使用协议 天翼云微隔离防火墙服务协议 天翼云云下一代防火墙服务协议 天翼云云堡垒机服务协议 天翼云漏洞扫描服务协议 天翼云登录保护服务协议 天翼云态势感知产品服务协议 天翼云网站安全检测服务协议 内容安全服务协议 天翼云等保咨询服务协议 天翼云安全专区服务协议 天翼云DDoS高防(边缘云版)服务协议 天翼云网站安全监测服务协议 天翼云密钥管理服务协议 天翼云Web应用防火墙(原生版)服务协议 天翼云日志服务(原生版)服务协议 天翼云服务器安全卫士(原生版)服务协议 天翼云Web应用防火墙(独享版)服务协议 天翼云爬虫管理平台服务协议 天翼云容器安全平台服务协议 天翼云分布式云安全平台服务协议 天翼云企业主机安全服务协议 天翼云云防火墙(原生版)服务协议 天翼云密评专区服务协议 天翼云防火墙服务协议 天翼云态势感知(专业版)服务协议 云等保专区服务协议 天翼云数据安全中心服务协议 天翼云漏洞扫描(专业版)服务协议 天翼云托管检测与响应服务(原生版)服务协议 天翼云云证书管理服务服务条款 天翼云证书管理服务服务协议 天翼云日志审计(原生版)服务协议 天翼云云安全中心服务协议 天翼云网页防篡改(原生版)服务协议 天翼云antiDDoS流量清洗服务协议 天翼云Web应用防火墙服务协议 天翼云域名无忧服务协议 天翼云运维安全中心(云堡垒机)服务协议 天翼云安全体检产品服务协议 [](
        来自:
        帮助文档
        法律声明
        产品协议
        产品服务协议
      • 数据湖探索监控指标说明及查看指导
        指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) queuecunum 队列CU使用量 展示用户队列申请的CU数 ≥0 队列 5分钟 queuejoblaunchingnum 提交中作业数 展示用户队列中状态为提交中的作业数。 ≥0 队列 5分钟 queuejobrunningnum 运行中作业数 展示用户队列中状态为运行中的作业数。 ≥0 队列 5分钟 queuejobsucceednum 已完成作业数 展示用户队列中状态为已完成的作业数。 ≥0 队列 5分钟 queuejobfailednum 已失败作业数 展示用户队列中状态为已失败的作业数。 ≥0 队列 5分钟 queuejobcancellednum 已取消作业数 展示用户队列中状态为已取消的作业数。 ≥0 队列 5分钟 queuecpuusage 队列CPU使用率 展示用户队列的CPU使用率。 0~100 队列 5分钟 queuediskusage 队列磁盘使用率 展示用户队列的磁盘使用率。 0~100 队列 5分钟 queuediskused 队列磁盘使用率最大值 展示用户队列的磁盘使用率的最大值。 0~100 队列 5分钟 queuememusage 队列内存使用率 展示用户队列的内存使用率。 0~100 队列 5分钟 queuememused 队列内存使用量 展示用户队列的内存使用量。 ≥0 队列 5分钟 flinkreadrecordspersecond Flink作业数据输入速率 展示用户Flink作业的数据输入速率,供监控和调试使用。 ≥0 Flink作业 10秒钟 flinkwriterecordspersecond Flink作业数据输出速率 展示用户Flink作业的数据输出速率,供监控和调试使用。 ≥0 Flink作业 10秒钟 flinkreadrecordstotal Flink作业数据输入总数 展示用户Flink作业的数据输入总数,供监控和调试使用。 ≥0 Flink作业 10秒钟 flinkwriterecordstotal Flink作业数据输出总数 展示用户Flink作业的数据输出总数,供监控和调试使用。 ≥0 Flink作业 10秒钟 flinkreadbytespersecond Flink作业字节输入速率 展示用户Flink作业每秒输入的字节数。 ≥0 Flink作业 10秒钟 flinkwritebytespersecond Flink作业字节输出速率 展示用户Flink作业每秒输出的字节数。 ≥0 Flink作业 10秒钟 flinkreadbytestotal Flink作业字节输入总数 展示用户Flink作业字节的输入总数。 ≥0 Flink作业 10秒钟 flinkwritebytestotal Flink作业字节输出总数 展示用户Flink作业字节的输出总数。 ≥0 Flink作业 10秒钟 flinkcpuusage Flink作业CPU使用率 展示用户Flink作业的CPU使用率。 0~100 Flink作业 10秒钟 flinkmemusage Flink作业内存使用率 展示用户Flink作业的内存使用率。 0~100 Flink作业 10秒钟 flinkmaxoplatency Flink作业最大算子延迟 展示用户Flink作业的最大算子延迟时间,单位ms。 ≥0 Flink作业 10秒钟 flinkmaxopbackpressurelevel Flink作业最大算子反压 展示用户Flink作业的最大算子反压值,数值越大,反压越严重。 0:表示OK 50:表示Low 100:表示High 0~100 Flink作业 10秒钟
        来自:
        帮助文档
        数据湖探索
        用户指南
        其他常用操作
        数据湖探索监控指标说明及查看指导
      • 弹性资源池概述
        维度 原有队列,无弹性资源池时 弹性资源池 扩容时长 手工扩容时间长,扩容时长在分钟级别 不需要手工干预,秒级动态扩容。 资源利用率 不同队列之间资源不能共享。 例如:队列1当前还剩余10CU资源,队列2当前负载高需要扩容时,队列2不能使用队列1中的资源,只能单独对队列1进行扩容。 添加到同一个弹性资源池的多个队列,CU资源可以共享,达到资源的合理利用。 资源利用率 配置跨源时,必须为每个队列分配不重合的网段,占用大量VPC网段。 多队列通过弹性资源池统一进行网段划分,减少跨源配置的复杂度。 资源调配 多个队列同时扩容时不能设置优先级,在资源不够时,会导致部分队列扩容申请失败。 您可以根据当前业务波峰和波谷时间段,设置各队列在弹性资源池中的优先级,保证资源的合理调配。
        来自:
        帮助文档
        数据湖探索
        用户指南
        弹性资源池
        使用前必读
        弹性资源池概述
      • 跨源连接问题
        问题描述 创建跨源并绑定新创建的DLI队列,测试跨源的网络连通性时失败,有如下报错信息: failed to connect to specified address 排查思路 以下排查思路根据原因的出现概率进行排序,建议您从高频率原因往低频率原因排查,从而帮助您快速找到问题的原因。 如果解决完某个可能原因仍未解决问题,请继续排查其他可能原因。 检查是否在域名或者IP后添加了端口 检查是否连接的是对端VPC和子网 检查队列的网段是否与数据源网段是否重合 检查是否为DLI授权了VPC Administrator权限 检查对端安全组是否放通队列的网段 检查增强型跨源连接对应的对等连接的路由信息 检查VPC网络是否设置了ACL规则限制了网络访问 检查是否在域名或者IP后添加了端口 测试连通性时需要添加端口号。 例如,测试队列与指定RDS实例连通性,本例RDS实例使用3306端口。 测试连通性如下所示。 检查是否连接的是对端VPC和子网 创建增强型跨源连接时需要填写对端的VPC和子网。 例如,测试队列与指定RDS实例连通性,创建连接时需要填写RDS的VPC和子网信息。 检查队列的网段是否与数据源网段是否重合 绑定跨源的DLI队列网段和数据源网段不能重合。 您可以从连接日志判断是否是队列与数据源网段冲突。 即当前队列A网段与其他队列B网段冲突,且队列B已经建立了与数据源C的增强型跨源连接。因此提示队列A与数据源C的网段冲突,无法建立新的增强型跨源连接。 解决措施:修改队列网段或重建队列。 建议创建队列时就规划好网段划分,否则冲突后只能修改队列网段或重建队列。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        跨源连接相关问题
        跨源连接问题
      • 创建并提交Spark Jar作业
        创建队列 第一次提交Spark作业,需要先创建队列,例如创建名为“sparktest”的队列,队列类型选择为“通用队列”。 1.登录DLI管理控制台。 2.在DLI管理控制台的左侧导航栏中,选择“资源管理 > 队列管理”。 3.单击“队列管理”页面右上角“创建队列”进行创建队列。 4.创建名为“sparktest”的队列,队列类型选择为“通用队列”。创建队列详细介绍请参考《数据湖探索用户指南》>《创建队列》。 5.单击“立即创建”,完成队列创建。 创建程序包 提交Spark作业之前需要创建程序包,例如“sparkexamples.jar”。 1.在管理控制台左侧,单击“数据管理”>“程序包管理”。 2.在“程序包管理”页面,单击右上角“创建”可创建程序包。 3.在“创建程序包”对话框,“包类型”选择“JAR”,“OBS路径”选择步骤2:上传数据至OBS中“sparkexamples.jar”的包路径,“分组设置”参数选择为“不分组”。 4.单击“确定”,完成创建程序包。 程序包创建成功后,您可以在“程序包管理”页面查看和选择使用对应的包。 创建程序包详细介绍请参考《数据湖探索用户指南》>《创建程序包》。 提交Spark作业 1.在DLI管理控制台,单击左侧导航栏中的“作业管理”>“Spark作业”,单击“创建作业”,进入创建Spark作业页面。 2.在Spark作业编辑页面中,“所属队列”选择步骤4:创建队列中创建的队列,“应用程序”选择步骤5:创建程序包创建的程序包。 其他参数请参考《数据湖探索用户指南》>《创建Spark作业》中关于Spark作业编辑页面的说明。 3.单击Spark作业编辑页面右上方“执行”,阅读并同意隐私协议,单击“确定”。提交作业,页面显示“作业提交成功”。 4.(可选)可到“作业管理”>“Spark作业”页面查看提交作业的状态及日志。 说明 在DLI管理控制台第一次单击“执行”操作时,需要阅读隐私协议,同意确定后,后续操作将不会再提示。
        来自:
        帮助文档
        数据湖探索
        快速入门
        创建并提交Spark Jar作业
      • 配置Kafka实例的公网访问
        关闭IPv4公网访问(支持修改明文/密文接入) 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka”,进入分布式消息服务Kafka专享版页面。 4. 单击Kafka实例的名称,进入实例的“基本信息”页面。 5. 关闭公网访问前,需要先关闭公网访问中的“明文接入”和“密文接入”。然后在“公网访问”后,单击,弹出确认关闭对话框。 6. 单击“确认”,跳转到“后台任务管理”页面。当任务状态显示为“成功”时,表示成功关闭公网访问。 关闭公网访问后,需要设置对应的安全组规则,才能成功通过内网连接Kafka。 表4 Kafka实例安全组规则(内网访问) 方向 协议 类型 端口 源地址 说明 入方向 TCP IPv4 9092 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(明文接入)。 入方向 TCP IPv4 9093 0.0.0.0/0 使用内网通过同一个VPC访问Kafka实例(密文接入)。 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问Kafka实例,无需添加表4的规则。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        配置Kafka实例的公网访问
      • 创建实例
        安全组 安全组可重复使用,您也可以根据实际情况使用不同的安全组,请根据实际需要进行配置。 创建安全组的操作指导,请参考虚拟私有云创建安全组。 若需要为安全组添加规则,请参考虚拟私有云安全组添加安全组规则。 弹性云主机 用户若需要自己客户应用接入RocketMQ发送、消费消息,需先购买弹性云主机并确保和RocketMQ实例在同一VPC下。创建操作说明请参见创建弹性云主机。 订购实例 实例介绍 RocketMQ实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占RocketMQ实例,可根据业务需要可定制相应规格的RocketMQ实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 1、在产品详情页点击立即开通按钮,或者进入消息管理控制台创建实例,进入订购分布式消息RocketMQ页面。 2、点击创建实例进入对应页面,左上角选择目标资源池。 1)填写实例名称,系统默认实例名称,用户可直接修改。 2)选择引擎类型,目前默认选择RocketMQ引擎,完全兼容开源客户端的高性能低延时的消息队列。 3)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 4)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、1年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、1年。 计费模式为按需计费,则该选项隐藏无需选择。 5)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 6)设置主备节点对数,可输入1~16。主备节点通常是指主题(Topic)的生产者和消费者之间的角色切换。当主节点发生故障或不可用时,备节点可以自动接管并继续提供服务。这种主备节点的设计可以确保系统的稳定性和可靠性。 7)主机类型为计算增强型。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 8)选择实例规格,分布式消息服务RocketMQ提供计算增强型2C4G、4C8G等一系列规格,各规格详细说明参见弹性云主机规格。 9)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/超高IO。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 10)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 11)选择已有子网,若无子网,点击创建跳转到子网页面新增。 12)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增。 13) 填写完上述信息后,单击“下一步”,进入费用确认页面。 14)确认实例信息无误后,提交请求。 15)在实例列表页面,查看RocketMQ实例是否创建成功。创建实例大约需要3到15分钟,此时实例状态为“创建中”。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        创建实例
      • 概述
        本文主要介绍概述 概述 APM Agent会周期性采集一些性能指标数据,用来衡量应用的总体健康状况。可以采集JVM、GC、服务调用、异常、外部调用、数据库访问以及其他中间件的指标调用等数据,帮助用户全面掌握应用的运行情况。 APM对指标数据的采集有严格的定义,每一种采集的数据类型对应一个采集器,比如采集java应用的JVM数据,那么对应有JVM采集器,一个采集器会采集多个指标集的数据。 采集器被部署到环境后形成监控项,在数据采集的时候监控项决定了采集的数据结构和采集行为。 采集周期:监控项具有数据采集器的周期属性。当前数据采集周期为一分钟,不支持用户调整。 监控项状态:默认为enable状态,用户可以将监控项设置为disable状态,这样Agent就不会拦截该指标数据,也不会上报数据。 采集状态:采集实例和监控项会有一个采集状态信息。如果出现采集错误,可以通过采集状态查看。常见错误是主键太多,导致客户端数据汇聚异常。 监控项类型 Agent会自动发现系统采集的插件类型,并且将采集器实例化,形成监控项。监控项是实例化在一个环境上的。 由于采集器种类较多,会导致用户区分困难。系统后台会定义一些类型,每种采集器都会归到一种类型下,这样方便用户查看数据。 根据采集器的作用可以将监控项分为以下几种类型: 接口调用:是指外部服务调用当前应用的监控类型。 基础监控:是用来监控系统性能的基础监控指标的监控类型。 异常:用来监控应用的异常信息。 外部调用:是指当前应用调用外部服务的监控类型。 数据库:是对数据库的访问进行监控。 缓存:是对Redis等缓存系统的监控,会采集指令级别的细粒度的指标数据。 web容器:是对tomcat等web容器的监控,一般会采集系统总的处理线程数,busy线程数,连接数等;用于衡量系统总的容量。 消息队列:是对kafka、RabbitMq等消息系统的监控,包含发送端和接收端的监控。在接收端的处理函数,可以产生调用链信息。 通信协议:是对websocket等通信协议的监控。
        来自:
        帮助文档
        应用性能管理
        用户指南
        应用指标监控
        概述
      • 应用场景
        本章节介绍故障演练服务的应用场景。 故障演练服务适用于多种复杂的业务和技术场景,旨在帮助用户从被动响应故障转变为主动发现和规避风险,全面提升系统的稳定性和韧性。 1. 验证高可用(HA)与容灾(DR)预案 这是故障演练的核心应用场景之一。通过模拟关键组件的失效,可以验证系统的自动切换、故障转移和恢复能力是否符合预期。 场景示例: 数据层 :通过模拟分布式缓存服务Redis版的主备切换、节点宕机等场景,验证组件能否无感切换,量化对上层业务的影响,评估高可用架构的实际效果。 中间件 :通过模拟分布式消息服务Kafka的Broker节点宕机等场景,检验消息中间件的高可用特性,评估业务数据的可靠性和业务消息生产/消费的合理性。 应用层 :通过模拟承载关键业务的云主机宕机等场景,验证应用健康检查与流量转移的及时性和有效性,评估业务连续性是否符合架构设计要求。 2. 评估系统性能水位 在业务大促、秒杀等高并发场景来临前,通过主动对系统资源施加压力,可以提前发现性能瓶颈,为容量规划和扩容决策提供数据支持。 场景示例: 计算资源压测 :通过模拟云主机CPU/内存高负载场景,监测应用服务的响应延迟与错误率变化,评估应用系统在资源瓶颈下的稳定性表现。 存储性能压测 :通过模拟云主机磁盘I/O高负载场景,监测数据库事务处理、日志写入等关键操作在压力下的吞吐量、延迟及错误率表现,评估存储系统的性能瓶颈。
        来自:
        帮助文档
        应用高可用
        产品简介
        故障演练服务
        应用场景
      • 应用场景(1)
        本章节介绍故障演练服务的应用场景。 故障演练服务适用于多种复杂的业务和技术场景,旨在帮助用户从被动响应故障转变为主动发现和规避风险,全面提升系统的稳定性和韧性。 1. 验证高可用(HA)与容灾(DR)预案 这是故障演练的核心应用场景之一。通过模拟关键组件的失效,可以验证系统的自动切换、故障转移和恢复能力是否符合预期。 场景示例: 数据层 :通过模拟分布式缓存服务Redis版的主备切换、节点宕机等场景,验证组件能否无感切换,量化对上层业务的影响,评估高可用架构的实际效果。 中间件 :通过模拟分布式消息服务Kafka的Broker节点宕机等场景,检验消息中间件的高可用特性,评估业务数据的可靠性和业务消息生产/消费的合理性。 应用层 :通过模拟承载关键业务的云主机宕机等场景,验证应用健康检查与流量转移的及时性和有效性,评估业务连续性是否符合架构设计要求。 2. 评估系统性能水位 在业务大促、秒杀等高并发场景来临前,通过主动对系统资源施加压力,可以提前发现性能瓶颈,为容量规划和扩容决策提供数据支持。 场景示例: 计算资源压测 :通过模拟云主机CPU/内存高负载场景,监测应用服务的响应延迟与错误率变化,评估应用系统在资源瓶颈下的稳定性表现。 存储性能压测 :通过模拟云主机磁盘I/O高负载场景,监测数据库事务处理、日志写入等关键操作在压力下的吞吐量、延迟及错误率表现,评估存储系统的性能瓶颈。
        来自:
      • 概述
        本节主要介绍概述 微服务云应用平台(ServiceStage)是面向企业的微服务云应用平台,提供应用发布、部署、监控与运维等一站式解决方案。支持Java、Go、Node.js、Docker、Tomcat等运行环境。支持Apache ServiceComb Java Chassis(Java Chassis)、Spring Cloud、Dubbo、Mesher服务网格等微服务应用,让企业应用上云更简单。 本文档指导您快速了解如何通过ServiceStage创建、部署应用以及如何进行应用运维、服务治理。 控制台说明 ServiceStage控制台说明如下表所示。 表 ServiceStage控制台说明 类别 说明 总览 提供ServiceStage产品总体看板,包含使用教程、应用、环境、组件等信息。 应用管理 应用列表提供应用生命周期管理的功能,如应用创建、新增组件、组件列表、环境视图、组件部署、组件详情页及运维入口等。 应用配置提供配置项管理和密钥管理功能。 环境管理 环境是用于应用部署和运行的计算、网络、中间件等基础资源的集合。提供环境创建、编辑、删除、资源配置(纳管资源、移除资源)等功能,以列表形式展示已创建的环境。 微服务引擎CSE 在微服务引擎CSE界面,进入微服务引擎控制台,可以进行微服务治理相关的操作。 持续交付 提供工程构建、发布等功能。 构建通过构建任务可以一键式生成软件包或者镜像包,实现“源码拉取>编译>打包>归档”的全流程自动化。 发布通过流水线工程可以完成一键部署,实现“源码拉取>编译>打包>归档>部署”的全流程自动化。利于集成环境统一、交付流程标准化。 仓库授权用户可以新建仓库授权,使构建工程、应用组件可以使用授权信息访问软件仓库。 软件中心 提供组织管理、镜像仓库等功能。 镜像仓库提供用于存储、管理Docker容器镜像的场所,可以让您轻松存储、管理Docker容器镜像。 组织管理用于隔离镜像,并为租户下用户指定不同的权限(读取、编辑、管理)。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        概述
      • 订单管理
        退订订单进行退款时候,款项退到哪里? 目前退款路径分原路返回和退回账户余额两种: 订单充值支付(微信、翼支付、支付宝)优先原路退回,退订后退款金额会原路返回,按照原支付路径实时退还至原付款账户。 订单充值支付(微信、翼支付、支付宝)原路退回若失败,退订后退款金额会退回账户余额,客户可根据需要进行提现 。提现详细操作请参考:余额提现 如果客户先用微信充值了5元,订单总金额消费53元,客户用了该笔余额5元,收银台选择微信支付了48元,那么该笔退款后客户会如何收到钱? 余额支付的5元会退回账户余额,微信支付的48元会原路退回至原付款账户。
        来自:
        帮助文档
        费用中心
        常见问题
        订单管理
      • 运维指导
        本章节主要介绍Spark作业相关问题中有关运维指导的问题。 添加Python包后,找不到指定的Python环境 添加Python3包后,找不到指定的Python环境。 可以通过在conf文件中,设置spark.yarn.appMasterEnv.PYSPARKPYTHONpython3,指定计算集群环境为Python3环境。 目前,新建集群环境均已默认为Python3环境。 为什么Spark jar 作业 一直处于“提交中”? Spark jar 作业 一直处于“提交中”可能是队列剩余的CU量不足导致作业无法提交。 查看队列的的剩余步骤如下: 1. 查看队列CU使用量。 点击“云监控服务 > 云服务监控 > 数据探索湖 > 队列监控 > 队列CU使用量” 。 2. 计算剩余CU量。 队列剩余CU量队列CU量 队列CU使用量。 当队列剩余CU量小于用户提交的CU量,则需要等待资源,才能提交成功。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Spark作业相关问题
        运维指导
      • 使用RabbitMQ触发器
        本章介绍函数工作流如何使用RabbitMQ触发器。 前提条件 已经创建函数。 创建RabbitMQ触发器,必须开启函数工作流VPC访问。 已经创建RabbitMQ实例。 确认实例安全组规则是否配置正确。 在RabbitMQ实例详情页面的“基本信息 > 网络”,单击安全组名称,跳转到安全组页面。 选择“入方向规则”,查看安全组入方向规则。 实例未开启SSL开关 如果是VPC内访问,实例安全组入方向规则,需要允许端口5672的访问。 如果是公网访问,需要允许端口15672的访问。 实例已开启SSL开关 如果是VPC内访问,实例安全组入方向规则,需要允许端口5671的访问。 如果是公网访问,需要运行端口15671的访问。 创建RabbitMQ触发器 1. 登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2. 选择待配置的函数,单击进入函数详情页。 3. 选择“设置 > 触发器”,单击“创建触发器”,弹出“创建触发器”对话框。 4. 设置以下信息。 触发器类型:选择“分布式消息服务RabbitMQ版 (RABBITMQ)”。 实例:选择已创建RabbitMQ实例。 交换机名称:填写用户需要使用的交换机名称。 密码:填写创建RabbitMQ实例的密码。 虚拟机名称:填写用户自定义的vhost。 批处理大小:每次从Topic消费的消息数量。 5. 单击“确定”,完成RabbitMQ触发器的创建。 说明 开启函数流VPC访问后,需要在RabbitMQ服务安全组配置对应子网的权限。
        来自:
        帮助文档
        函数工作流
        用户指南
        配置触发器
        使用RabbitMQ触发器
      • 作业运维报错
        问题原因 在CDM界面创建迁移作业,配置DLI目的连接参数时,“资源队列”参数错误选成了DLI的“通用队列”,应该选择DLI的“SQL队列”。 解决方案 1.登录DLI管理控制台,选择“队列管理”,在队列管理界面查看是否有“SQL队列”类型的队列。 −是,执行3。 −否,执行2购买“SQL队列”类型的队列。 2.单击“购买队列”创建队列,其中队列类型选择“SQL队列”,选择其他参数后提交创建。 3.在CDM侧重新配置迁移作业的DLI目的连接参数,其中资源队列”参数选择已创建的DLI“SQL队列”。 4.CDM重新提交迁移作业,查看作业执行日志。 SQL作业访问报错:File not Found 问题现象 执行SQL作业访问报错:File not Found。 解决措施 文件报错找不到,一般是读写冲突产生的,建议查询一下SQL查询报错表的时候,是否有作业正在覆盖写对应数据。 SQL作业访问报错:DLI.0003: AccessControlException XXX 问题现象 SQL作业访问报错:DLI.0003: AccessControlException XXX。 解决措施 请查看下AccessControlException写的OBS桶,确认当前账号是否有访问桶的权限。 SQL作业访问外表报错:DLI.0001: org.apache.hadoop.security.AccessControlException: verifyBucketExists on}: status [403] 问题现象 SQL作业访问外表报错:DLI.0001: org.apache.hadoop.security.AccessControlException: verifyBucketExists on {{桶名}}: status [403]。 解决措施 当前账号没有访问该外表所在OBS桶的权限,请添加相应OBS权限再执行该查询。 执行SQL语句报错:The current account does not have permission to perform this operation,the current account was restricted. Restricted for no budget.
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        SQL作业相关问题
        作业运维报错
      • 权限控制概述
        同一个Nacos引擎可能会有多个用户共同使用,开启了“安全认证”的Nacos引擎专享版,通过微服务控制台提供的基于RBAC(RoleBased Access Control,基于角色的访问控制)的权限控制功能,使不同的用户根据其责任和权限,具备不同的引擎访问和操作权限。 开启了“安全认证”的Nacos引擎专享版,支持微服务正常接入。 说明 只有引擎版本为2.1.0.1及以上版本支持此功能,若版本低于2.1.0.1,可参考 当Nacos引擎版本为2.1.0升级到2.1.0.1及以上版本时,需要先开启安全认证初始化密钥信息,才可使用权限控制功能。
        来自:
        帮助文档
        微服务引擎
        用户指南
        注册配置中心
        使用注册配置中心
        权限控制
        权限控制概述
      • 资源配额
        类型 定义 区别 队列 将集群资源划分给队列,提交给队列的任务将使用volcano进行资源调度;同一集群下的队列之间无法相互借用各自的闲置资源 创建队列 1.默认集群自带默认队列,无需用户创建 2.专属集群资源的使用需要用户创建队列 使用队列 1.在默认工作空间内关联队列,关联后,在默认工作空间内作业可以使用队列资源 (仅默认工作空间可使用队列) 支持范围 1.所有资源池都支持 注:后续产品迭代会逐步取消队列,建议使用资源配额 资源配额 将集群资源在逻辑层面进行了资源配额划分,集群资源划分与资源调度进行了解耦,提交给资源配额的任务将通过资源调度层进行资源调度;根据创建资源配额时的设置,同一集群下的资源配额之间可以进行闲置资源借用 创建资源配额 1.专属集群资源的使用需要用户创建资源配额(默认集群无法使用资源配额,只有默认队列) 使用资源配额 1.在非默认工作空间内关联资源配额,关联后,在非默认工作空间内作业可以使用资源配额资源 (仅非默认工作空间可使用资源配额) 支持范围 1.仅杭州7资源池支持
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        管理中心
        资源配额
      • 应用场景
        本章节介绍微服务云应用平台应用场景 容器托管解决方案 支持以容器的形式托管应用,无缝对接云容器引擎,您无需理解容器服务底层细节,可以通过控制台发布容器服务,并完成应用在容器里的全生命周期管理,包括发布、回滚、监控,服务启停,扩缩容等,有效降低运维人力成本。 微服务解决方案 兼容SpringCloud、Dubbo等微服务框架,0代码侵入就能完成 Dubbo 和Spring Cloud 应用上云,提供应用无损上下线、金丝雀发布,以及流量控制等多种服务治理特性,让企业构建微服务应用时更多的关注业务本身。
        来自:
        帮助文档
        微服务云应用平台
        产品简介
        应用场景
      • 修改配置参数
        本文主要介绍 修改配置参数。 操作场景 分布式消息服务Kafka为实例、Topic、消费者提供了几个常用配置参数的默认值,您可以根据实际业务需求,在控制台自行修改参数值。其他在控制台未列出的配置参数,请参考Kafka配置进行修改。 1.1.0版本实例的参数都为静态参数,2.3.0/2.7版本实例的参数分为动态参数和静态参数: 动态参数:动态参数修改成功后,无需重启实例,立即生效。 静态参数:静态参数修改成功后,需要手动重启实例才能生效。 说明 部分老实例不支持修改配置参数,具体以控制台为准,此时请联系客服解决。 前提条件 Kafka实例的状态为“运行中”时,才能修改配置参数。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在“配置参数”页签,在待修改参数所在行,单击“编辑”,修改配置参数。1.1.0版本实例的参数说明如下表所示,2.3.0/2.7版本实例的参数说明如下表所示。 表动态参数说明(1.1.0版本) 参数 参数说明 参数范围 默认值 auto.create.groups.enable 是否开启自动创建消费组功能。 true/false true 表 静态参数说明(1.1.0版本) 参数 参数说明 参数范围 默认值 min.insync.replicas 当producer将acks设置为“all”(或“1”)时,此配置指定必须确认写入才能被认为成功的副本的最小数量。 1 ~ 3 1 message.max.bytes 单条消息的最大长度(单位:字节)。 0 ~ 10485760 10485760 unclean.leader.election.enable 指示是否启用不在ISR集合中的副本选为领导者作为最后的手段,即使这样做可能导致数据丢失。 true/false true connections.max.idle.ms 此参数用来指定在多少毫秒之后,关闭空闲的连接。 5000 ~ 600000 600000 log.retention.hours 日志文件最大保存时间。单位为小时。如果Topic已经设置了老化时间,则此参数对此Topic不生效。仅在Topic未设置老化时间时,此参数才对此Topic生效。 1 ~ 168 72 max.connections.per.ip 每个IP允许的最大连接数。超过此连接数的连接请求将被丢弃。 100 ~ 20000 1000 group.max.session.timeout.ms consumer允许的最大会话超时时间,单位为ms。超时时间越长,consumer就能在心跳探测周期内有更多时间处理消息,但也会使故障检测花费更长时间。 6000 ~ 1800000 1800000 default.replication.factor 自动创建Topic时的默认副本个数。 1 ~ 3 3 num.partitions 自动创建Topic时的默认分区数。 1 ~ 100 3 group.min.session.timeout.ms consumer允许的最小会话超时时间,单位为ms。超时时间越短,consumer的心跳探测越频繁,可以使故障检测更快,但会导致broker被抢占更多的资源。 6000 ~ 300000 6000 表动态参数说明(2.3.0/2.7版本) 参数 参数说明 参数范围 默认值 min.insync.replicas 当producer将acks设置为“all”(或“1”)时,此配置指定必须确认写入才能被认为成功的副本的最小数量。 1 ~ 3 1 message.max.bytes 单条消息的最大长度(单位:字节)。 0 ~ 10485760 10485760 auto.create.groups.enable 是否开启自动创建消费组功能。 true/false true max.connections.per.ip 每个IP允许的最大连接数。超过此连接数的连接请求将被丢弃。 100 ~ 20000 1000 unclean.leader.election.enable 指示是否启用不在ISR集合中的副本选为领导者作为最后的手段,即使这样做可能导致数据丢失。 true/false true 表静态参数说明(2.3.0/2.7版本) 参数 参数说明 参数范围 默认值 connections.max.idle.ms 此参数用来指定在多少毫秒之后,关闭空闲的连接。 5000 ~ 600000 600000 log.retention.hours 日志文件最大保存时间。单位为小时。如果Topic已经设置了老化时间,则此参数对此Topic不生效。仅在Topic未设置老化时间时,此参数才对此Topic生效。 1 ~ 168 72 group.max.session.timeout.ms consumer允许的最大会话超时时间,单位为ms。超时时间越长,consumer就能在心跳探测周期内有更多时间处理消息,但也会使故障检测花费更长时间。 6000 ~ 1800000 1800000 default.replication.factor 自动创建Topic时的默认副本个数。 1 ~ 3 3 num.partitions 自动创建Topic时的默认分区数。 1 ~ 100 3 group.min.session.timeout.ms consumer允许的最小会话超时时间,单位为ms。超时时间越短,consumer的心跳探测越频繁,可以使故障检测更快,但会导致broker被抢占更多的资源。 6000 ~ 300000 6000 说明 如果需要批量修改参数,单击“批量编辑”,可以一次性编辑多个动态参数或静态参数的运行值。 如果需要恢复默认值,在待修改参数后,单击“恢复默认”。 步骤 6 单击“保存”,完成参数的修改。 说明 动态参数修改成功后,无需重启实例,立即生效。 静态参数修改成功后,需要手动重启实例才能生效。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        修改配置参数
      • 删除资源池
        本章节主要介绍删除工作负载队列。 删除工作负载队列 1. 登录DWS 管理控制台。 2. 在集群列表中单击需要访问“资源管理”页面的集群名称。 3. 切换至“资源管理”页签。 4. 在左侧“资源池”中单击需要删除的资源池名称。 5. 单击右侧的“删除资源池” 说明 删除队列时如果队列中有关联的数据库用户,那么队列删除后这些用户将被关联默认队列。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        资源管理
        资源池
        删除资源池
      • 计费类
        按需计费的DLI队列,如果没有提交作业运行就不计费? 按需计费的DLI队列(非专属资源)仅在队列运行作业时计费,按队列的实际CU计费,请注意是队列的实际CUs,非作业运行CUs。 以小时为单位进行结算,不足一小时按一小时计费,小时数按整点计算。 按需计费的DLI队列(专属资源),无论是否运行作业,自创建起按自然小时收费。 数据湖队列什么情况下是空闲状态? 队列空闲状态是指在DLI 作业管理中,该队列下均无SQL 作业运行,或者 Flink 作业运行、Spark 作业运行。 即一个自然小时内无作业运行,该自然小时为空闲状态。不会进行计费。 通常按需计费的队列,在空闲1h后计算资源会被释放,再次使用时,需要重新分配计算资源,可能会耗费5~10min时间。 按需计费以小时为单位进行结算。不足一小时按一小时计费,小时数按整点计算。 例如 12:10 ~12:30、12:10 ~12:55 期间使用,则收取1个小时的费用。 如何购买30cus规格资源? 这种情况,请购买2个16cus规格的队列,不会对业务造成影响。 关于如何购买队列,请参考“创建队列”。 怎样查看DLI的数据扫描量? 1. 登录DLI管理控制台。 2. 选择“作业管理 > SQL作业”。 3. 筛选执行队列为default队列,查看相应的作业。 4. 单击展开作业,查看已扫描的数据。
        来自:
        帮助文档
        数据湖探索
        常见问题
        计费类
      • 弹性资源池CU设置
        CU设置常见问题 当队列的CU总和等于弹性资源池最小CU时,即弹性资源池当前CU等于最小CU时,怎样修改弹性资源池内现有队列的CU最小值? 解决方案: 1.通过调大现有队列的CU最大值,使弹性资源池当前CU大于等于目标最小CU(目标最小CU即计划调整后的队列最小CU值总和)。 说明 如果弹性资源池最大CU等于最小CU,请先设置增大弹性资源池的最大CU值。 2.设置弹性资源池的最小CU。 3.调整弹性资源池内现有队列的最小CU。 当队列的CU总和等于弹性资源池最小CU时,即弹性资源池当前CU等于最小CU时,怎样在弹性资源池内添加队列? 解决方案: 1.通过调大现有队列的CU最大值,使弹性资源池当前CU大于等于目标最小CU(目标最小CU即计划调整后的队列最小CU值总和)。 说明 如果弹性资源池最大CU等于最小CU,请先设置增大弹性资源池的最大CU值。 2.设置弹性资源池的最小CU。 3.在资源池内新增队列。 4.复原 ▪第一步:通过调整现有队列的CU最大值,使弹性资...中调整的队列CU最大值。
        来自:
        帮助文档
        数据湖探索
        用户指南
        弹性资源池
        弹性资源池基本操作
        弹性资源池CU设置
      • 购买类常见问题
        本节介绍分布式消息服务Kafka计费类常见问题 可以购买哪些版本? 不同资源池可购买的版本、规格不一致,具体请查看产品规格说明 (1)华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 可以选购Kafka引擎,选择主机类型、节点规格、节点数和存储空间。 (2)芜湖2、上海7、重庆2、乌鲁木齐27、石家庄20、内蒙6、北京5 可以选购高级版和基础版两个版本。 到期后如何续费? 在集群列表中点击“续费”,进入购买时长页面,购买成功后自动续费。 手动续订:对于包年/包月订购的分布式缓存服务,用户在资源到期前进行续费操作,可以延长原有资源到期时间,避免资源到期后冻结或超过保留期后被系统回收。详细操作请参考费用中心续订管理手动续订。 自动续订:自动续订仅针对采用包月、包年计费模式的资源,详细操作请参考费用中心续订管理自动续订。 产品订购时可选资源池节点不一致? 已上线资源池节点的剩余容量达到一定比例后,为确保老客户权益,将不再面向新客户开放,产品订购时的可选资源节点范围以实际为准。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        计费与购买类
        购买类常见问题
      • 全链路流量控制简介
        本章节介绍全链路流量控制功能 概述 在微服务云应用平台中支持对微服务应用进行全链路流量控制。全链路流量控制功能可以帮助您快速灵活地创建一个流量控制环境,将具有一定特征的流量路由到目标版本应用。 背景信息 在微服务云应用平台中,当您部署的应用存在升级版本时,由于应用间的调用是随机的,会导致无法将具有一定特征的流量路由到应用的目标版本。全链路流量控制功能将应用的相关版本隔离成一个独立的运行环境(即泳道),通过设置流控路由规则,将满足规则的请求流量路由到目标版本应用。 本文以电商架构中的下单场景为例介绍全链路流控功能。 客户下单后流量从入口应用(或者微服务网关)进来,调用商城应用,商城应用再调用订单应用,订单应用调用下游的支付应用。 商城应用和订单应用各有两个新版本(V1.1和V1.2)在运行,需要对这两个新版本进行灰度验证。此时在入口应用(或者微服务网关)上期望将满足特定流控规则的请求流量路由到新版本,其余流量全部路由到线上(基线)版本。 在示意图中,商城应用和订单应用分别存在两个升级版本(V1.1和V1.2),此时访问请求会随机转发到各个版本,无法进行流量控制。借助全链路流量控制功能,将版本V1.1设置为tag1泳道;将版本V1.2设置为tag2泳道,并在入口应用处设置流控规则,当进入入口应用的请求流量满足流控规则时,则将请求流量路由到目标泳道。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        微服务治理
        全链路流量控制
        全链路流量控制简介
      • 产品组件
        OpenSearch Dashboards OpenSearch Dashboards提供了直观的可用于创建、共享、交互式的开发、运维数据分析平台。与OpenSearch搭配使用,并提供角色基础访问控制能力。文内或简称为Dashboards。 支持多用户角色的权限管理 支持包括甘特图在内的多种数据呈现方式 支持多种数据统计方式 支持高阶的索引管理能力 支持通知告警功能 支持基于SQL的查询能力 支持CSV、PDF、Excel等文件的报告生成功能 Logstash Logstash是数据管道服务,通过可扩展的输入、过滤和输出体系,实时采集、转换和加载多源异构数据,并灵活对接各类存储与分析平台,是ELK(Elastic Stack)生态的核心组件之一。天翼云提供的全托管的Logstash服务,支持一键部署、可视化管道配置和数据管道集中管理。 支持文件、数据库、消息队列等多种数据源采集 支持灵活的数据处理,如字段提取、数据脱敏等 内置健康检查机制,支持通过API或可视化界面监控数据管道运行状态 Cerebro Cerebro 是一个功能强大且易于使用的云搜索服务管理工具,适合开发、运维和数据分析等多种场景。通过Cerebro可以对实例进行Web可视化管理,如监控实时的磁盘、集群负载、内存使用率等,通过其直观的界面和丰富的功能,用户可以更高效地管理和监控云搜索实例。云搜索服务兼容开源Cerebro,适配0.9.4。 支持可视化数据管理 支持监控实例实时负载
        来自:
        帮助文档
        云搜索服务
        产品介绍
        产品组件
      • 产品规格
        本节介绍分布式消息服务Kafka的产品规格,以便您正确理解和使用。 Kafka实例规格 (1)以下规格适用于 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点 注意 通用型规格已调整为白名单特性,如需了解该规格参数请联系技术支持。 单机版实例面向用户体验和业务测试场景,无法保证性能和高可用。如果需要在生产环境使用Kafka实例,建议购买集群版实例。 集群版 Intel计算增强型 实例规格 代理个数 单个代理TPS 单个代理分区上限 单个代理建议主题数 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围 单个代理流量规格(MB/S) kafka.2u4g.cluster 350 30000 250 250 20 2000 300500000GB 100 kafka.4u8g.cluster 350 100000 500 500 100 4000 300500000GB 200 kafka.8u16g.cluster 350 150000 1000 1000 150 4000 300500000GB 375 kafka.12u24g.cluster 350 200000 1500 1500 200 4000 300500000GB 625 kafka.16u32g.cluster 350 250000 2000 2000 200 4000 300500000GB 750 kafka.24u48g.cluster 350 250000 2000 2000 200 4000 300500000GB 1125 kafka.32u64g.cluster 350 250000 2000 2000 200 4000 300500000GB 1500 kafka.48u96g.cluster 350 250000 2000 2000 200 4000 300500000GB 2250 kafka.64u128g.cluster 350 250000 2000 2000 200 4000 300500000GB 3000
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品规格
      • 公有云产品计费说明
        流水线 规格/特性名称 规格/特性说明 体验版 基础版 专业版 企业版 流水线并发 租户内并发执行的流水线的数量。 1个 5个 10个 20个 流水线执行时长 租户每个月累计流水线任务执行时长 1800分钟/月 不限 不限 不限 资源型任务执行时长 租户内资源消耗类任务每月累计执行总时长。 300分钟/月 1200分钟/月 6000分钟/月 12000分钟/月 流水线管理 流水线编排和执行,结果查看和信息订阅。 √ √ √ √ 微服务变更 DevOps变更模式,按微服务独立开发、测试和发布。 √ √ √ √ 扩展插件 自定义流水线插件。 √ √ √ √ 自定义门禁 自定义门禁策略,对阶段准出自动化拦截。 × √ √ √ 云原生发布 云原生环境变量管理,蓝绿,金丝雀,滚动发布多种发布模式。 √ √ √ √ 代码检查 规格/特性名称 规格/特性说明 体验版 基础版 专业版 企业版 代码检查并发 租户内并发执行的代码检查任务数量。 1个 5个 10个 20个 代码检查执行时长 租户每个月累计代码检查任务执行时长。 1800分钟/月 不限 不限 不限 基础语言支持 Java、C/C++、Python、JavaScript、TypeScript、ArkTs。 √ √ √ √ 进阶语言支持 除基础语言外,支持多种常用开发语言,如C
        来自:
        帮助文档
        软件开发生产线CodeArts
        计费说明
        公有云产品计费说明
      • 1
      • ...
      • 16
      • 17
      • 18
      • 19
      • 20
      • ...
      • 276
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      物理机 DPS

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      AI Store

      公共算力服务

      应用托管

      科研助手

      推荐文档

      配置采样率

      配置日志存储时长

      手动备份

      产品功能

      mstsc 远程登录报错-要求的函数不受支持

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号