活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      专属云分布式消息服务Kafka_相关内容
      • 产品功能
        功能 功能描述 HTTP触发器 给函数配置HTTP触发器,函数响应HTTP请求事件,执行指定的逻辑。 定时触发器 给函数配置定时器触发器,函数可以根据定时器配置周期性执行业务逻辑。 Kafka触发器 给函数配置Kafka触发器,函数可以监听Kafka消息来执行业务逻辑。 RocketMQ触发器 给函数配置RocketMQ触发器,函数可以监听RocketMQ消息来执行业务逻辑。 日志触发器 给函数配置日志触发器,函数可以根据日志的写入来执行业务逻辑。 对象存储触发器 给函数配置对象存储触发器,函数可以监听对象存储的创建、删除、更新等事件来执行业务逻辑。 云原生网关触发器 给函数配置云原生网关触发器,函数可以监听网关的事件来执行业务逻辑。
        来自:
        帮助文档
        函数计算
        产品介绍
        产品功能
      • 服务条款
        产品服务协议请查看: 天翼云分布式消息服务协议
        来自:
        帮助文档
        分布式消息服务Kafka
        相关协议
        服务条款
      • 云审计
        本页面主要介绍弹性云主机对接的云审计服务使用和查看方法。 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: ● 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 ● 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 使用限制 ● 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。 ● 用户通过云审计能查询到多久前的操作事件:7天。 ● 用户操作后多久可以通过云审计查询到数据:5分钟。 ● 其它限制请参考使用限制云审计。 操作步骤 1. 开通云审计服务。 参见开通云审计服务云审计。 2. 查看云审计事件。 参见查看审计事件云审计。 3. 在事件列表中,选择事件来源为“容器与中间件”,资源类型选择“分布式消息服务Kafka”,上方时间选择需要筛选的时间段。点击查询即可。 4. 在审计事件右侧点击详情,可以看到更详细的事件信息。 更多云审计相关使用说明和常见问题请参考用户指南、常见问题。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        安全
        云审计
      • ALM-38005 Broker进程垃圾回收(GC)时间超过阈值
        检查Kafka配置的直接内存大小 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Kafka > 配置 > 全部配置 > Broker(角色) > 环境变量”。将“KAFKAHEAPOPTS”参数中配置的“Xmx”值参考如下说明调大。 说明 建议“KAFKAHEAPOPTS”参数中“Xmx”和“Xms”值保持一致。 建议根据“Kafka直接内存资源状况”调整“KAFKAHEAPOPTS”的值为“Kafka使用的直接内存大小”的两倍(可根据实际业务场景进行修改)。“Kafka直接内存资源状况”可在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Kafka > 实例”,选择上报告警实例主机名对应的角色。单击图表区域右上角的下拉菜单,选择“定制 > 进程 > Kafka直接内存资源状况”进行查看。 3. 保存配置,并重启Kafka服务。 4. 观察界面告警是否清除。 是,处理完毕。 否,执行步骤7。 收集故障信息 在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 5. 在“服务”中勾选待操作集群的“Kafka”。 6. 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 7. 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-38005 Broker进程垃圾回收(GC)时间超过阈值
      • ALM-38001 Kafka磁盘容量不足
        检查Kafka数据规划。 11. 选择上报告警实例主机名对应的角色“Broker”。单击图表区域右上角的下拉菜单,选择“定制”,来自定义监控项。 12. 在弹出的“定制”对话框中,选择“磁盘 > Broker磁盘使用率”,并单击“确定”。 关于Kafka磁盘使用情况信息会被显示。 13. 根据步骤12的显示信息,查看是否只有步骤2中上报告警的磁盘分区。 是,执行步骤14。 否,执行步骤15。 14. 重新进行磁盘规划,挂载新的磁盘,进入当前问题节点“实例配置”页面,重新配置“log.dirs”,增加其他磁盘相应路径,重启当前Kafka实例。 15. 查看Kafka配置的数据保存时间配置,根据业务需求和业务量权衡,考虑是否需要调小数据保存时间。 是,执行步骤16。 否,执行步骤17。 16. 在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 服务 > Kafka > 配置 > 全部配置”,在右侧搜索框中填写配置项名称“log.retention.hours”,然后会显示该配置的当前值,此处的值为Topic默认的数据保存时间,可以适当调小该值。 说明 对于单独配置数据保存时间的Topic,修改Kafka服务配置页面上配置的数据保存时间不生效。 如果需要对某个Topic单独配置的话,可以使用Kafka客户端命令行,来单独配置该Topic。 例如: kafkatopics.sh zookeeper “ ZooKeeper 地址: 2181/kafka ”alter topic “ Topic 名称 ” config retention.ms “ 保存时间 ” 17. 查看是否由于某些Topic的Partition配置不合理导致部分磁盘使用率达到上限(例如:数据量非常大的Topic的Partition数目小于配置的磁盘个数,导致各磁盘上数据分配无法均匀,进而部分磁盘达到使用率上限)。 说明 对于单独配置数据保存时间的Topic,修改Kafka服务配置页面上配置的数据保存时间不生效。 如果需要对某个Topic单独配置的话,可以使用Kafka客户端命令行,来单独配置该Topic。 例如: kafkatopics.sh zookeeper “ ZooKeeper 地址: 2181/kafka ”alter topic “ Topic 名称 ” config retention.ms “ 保存时间 ” 18. 通过Kafka客户端对Topic的Partition进行扩展,命令行操作命令如下: kafkatopics.sh zookeeper“ ZooKeeper 地址 :2181/kafka ” alter topic “ Topic 名称 ” partitions “ 新Partition 数目 ” 说明 新Partition数目建议配置为Kafka数据磁盘数量的倍数。 当前步骤修改可能不会很快解决当前告警,需要结合步骤11中的数据保存时间逐渐均衡数据。 19. 考虑是否需要扩容。 说明 建议当前Kafka磁盘使用率超过80%时,则需要扩容。 是,执行步骤20。 否,执行步骤21。 20. 扩展磁盘容量,扩展后检查告警是否消失。 是,操作结束。 否,执行步骤22。 21. 检查告警是否清除。 是,操作结束。 否,执行步骤22。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-38001 Kafka磁盘容量不足
      • 开源对比
        对比项 开源自建 分布式消息服务RocketMQ 自动化部署 不支持自动化部署,需要专业人员自行部署、运维 全托管PaaS,免机器资源一键自动化部署。开箱即用,按需使用,支持弹性扩容 运维监控 缺乏配套的监控运维能力 提供多维度的数据可视化监控,快速定位、处理问题 增强能力 功能单一,无法支持多种场景需求 功能丰富,支持消息重试、消息查询、消息轨迹查询、数据自动清理等定制化功能 延迟消息/定时消息 仅支持18个固定延迟时长,最长延迟2小时 支持秒级的任意延迟时长,最长延迟40天 ACL访问控制 访问控制配置复杂 灵活配置,一键生效
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        开源对比
      • 分布式消息服务RocketMQ(1)
        分布式消息服务RocketMQ是一款低成本、高可靠、高性能的消息中间件产品,兼容开源RocketMQ客户端,提供高效可靠的消息传递服务,解决分布式应用系统之间的消息数据通信难题,用于系统间的解耦,用户只需专注业务,无需部署运维,适用于电商、金融、政企等多样业务场景。
        来自:
      • 与其他服务关系
        介绍分布式消息服务RabbitMQ与天翼云其他服务关系。 虚拟私有云(CTVPC,Virtual Private Cloud) 虚拟私有云为分布式消息服务RabbitMQ提供一个逻辑隔离的区域,构建一个安全可靠、 可配置和管理的虚拟网络环境。更多信息请参见虚拟私有云。 弹性云主机(CTECS,Elastic Cloud Server) 分布式消息服务RabbitMQ订购后,默认按照用户选择的实例规格开通弹性云主机,云主机由 CPU、内存、镜像、云硬盘组成,同时结合VPC、安全组、数据多副本保存等能力,打造一个既高效又可靠安全的计算环境,确保分布式消息服务RabbitMQ持久稳定运行。更多信息请参见弹性云主机。 云硬盘(CTEVS,Elastic Volume Service) 分布式消息服务RabbitMQ订购后,默认按照用户选择的存储大小开通云硬盘。云硬盘是一种可弹性扩展的块存储设备,可以为分布式消息服务RabbitMQ提供高性能、高可靠的块存储服务。更多信息请参见云硬盘。 弹性IP(Elastic IP,EIP) 弹性IP是可以独立申请的公网 IP 地址,包括公网IP地址与公网出口带宽服务。可以与分布式消息服务RabbitMQ动态绑定和解绑,实现云资源的互联网访问。针对需要公网访问分布式消息服务RabbitMQ实例的需求,用户可开通弹性IP后,在RabbitMQ实例开通页面进行绑定。更多信息请参见弹性IP。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        与其他服务关系
      • 服务内联委托
        本章节介绍故障演练服务的委托授权相关功能。 概述 故障演练服务 需要与分布式缓存服务Redis版 、分布式消息服务Kafka 等其他云产品 协同工作。为实现这一目标,当您首次使用本服务时,系统会请求您授权创建一个服务内联委托 ,以便平台能够安全地访问和管理您在其他云产品中的相关资源。 权限说明 为完成故障注入 等功能,故障演练平台 需要获得访问其他云服务 的权限。为此,系统需要您授权创建一个名为 CtyunAssumeRoleForADTSChaos 的服务内联委托。 此委托将绑定一个名为 CtyunAssumeRolePolicyForADTSChaos 的系统权限策略,可在统一身份认证 中的策略管理查看到该策略的授权范围。 服务内联委托说明 当您首次登录故障演练平台 控制台时,系统会自动检查 CtyunAssumeRoleForADTSChaos 委托 是否存在。若不存在,系统会弹出授权提示。在您确认后,系统将自动为您创建该委托及关联的权限策略。 验证方法: 您可以在 IAM 控制台的角色管理 页面,或通过API/CLI调用 ListDelegates,查看已创建的服务内联委托。 一个更简单的验证方法是:刷新或重新登录故障演练平台 控制台,如果所有功能均可正常使用且不再弹出授权提示,则表示委托已成功创建。 注意 如果没有CtyunAssumeRoleForADTSChaos服务内联委托权限,可能会因为某个服务权限不足而影响系统功能的正常使用。 请不要自行删除或者修改CtyunAssumeRoleForADTSChaos 委托以及CtyunAssumeRolePolicyForADTSChaos策略,这可能导致故障演练服务无法正常工作。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        权限管理
        服务内联委托
      • 配置Kafka数据传输加密
        本章主要介绍翼MapReduce的配置Kafka数据传输加密功能。 操作场景 Kafka客户端和Broker之间的数据传输默认采用明文传输,客户端可能部署在不受信任的网络中,传输的数据可能遭到泄漏和篡改。 操作步骤 默认情况下,组件间的通道是不加密的。用户可以配置如下参数,设置安全通道为加密的。 参数修改入口:在FusionInsight Manager系统中,选择“集群 > 待操作集群的名称 > 服务 > Kafka > 配置”,展开“全部配置”页签。在搜索框中输入参数名称。 说明 配置后应重启对应服务使参数生效。 Kafka服务端的传输加密相关配置参数详见下表。 配置项 描述 默认值 ssl.mode.enable 是否开启SSL对应服务。如果设置为“true”,那么Broker启动过程中会启动SSL的相关服务。 false security.inter.broker.protocol Broker间通信协议。支持PLAINTEXT、SSL、SASLPLAINTEXT、SASLSSL这四种协议类型。 SASLPLAINTEXT “ssl.mode.enable”配置为“true”后,Broker会开启SSL、SASLSSL两种协议的服务,然后服务端或者客户端才能配置相关的SSL协议,进行传输加密通信。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全加固
        配置Kafka数据传输加密
      • 与其他服务关系
        介绍分布式消息服务RocketMQ与天翼云其他服务关系。 虚拟私有云(CTVPC ,Virtual Private Cloud) 虚拟私有云为分布式消息服务RocketMQ提供一个逻辑隔离的区域,构建一个安全可靠、 可配置和管理的虚拟网络环境。更多信息请参见虚拟私有云。 弹性云主机(CTECS,Elastic Cloud Server) 分布式消息服务RocketMQ订购后,默认按照用户选择的实例规格开通弹性云主机,云主机由 CPU、内存、镜像、云硬盘组成,同时结合VPC、安全组、数据多副本保存等能力,打造一个既高效又可靠安全的计算环境,确保分布式消息服务RocketMQ持久稳定运行。更多信息请参见弹性云主机。 云硬盘(CTEVS,Elastic Volume Service) 分布式消息服务RocketMQ订购后,默认按照用户选择的存储大小开通云硬盘。云硬盘是一种可弹性扩展的块存储设备,可以为分布式消息服务RocketMQ提供高性能、高可靠的块存储服务。更多信息请参见云硬盘。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        与其他服务关系
      • 分布式消息服务RocketMQ
        分布式消息服务RocketMQ是一款低成本、高可靠、高性能的消息中间件产品,兼容开源RocketMQ客户端,提供高效可靠的消息传递服务,解决分布式应用系统之间的消息数据通信难题,用于系统间的解耦,用户只需专注业务,无需部署运维,适用于电商、金融、政企等多样业务场景。
        来自:
        帮助文档
        分布式消息服务RocketMQ
      • 获取Rest Client算子返回值教程
        本章节主要介绍DataArts Studio的获取Rest Client算子返回值操作。 Rest Client算子可以执行RESTful请求。 本教程主要介绍如何获取Rest Client的返回值,包含以下两个使用场景举例。 通过“响应消息体解析为传递参数定义”获取返回值。 通过EL表达式获取返回值。 通过“响应消息体解析为传递参数定义”获取返回值 如下图所示,第一个Rest Client调用了MRS服务查询集群列表的API,下图为API返回值的JSON消息体。 使用场景:需要获取集群列表中第一个集群的cluster Id,然后作为参数传递给后面的节点使用。 关键配置:在第一个Rest Client的“响应消息体解析为传递参数定义”配置中,配置clusterIdclusters[0].clusterId,后续的Rest Client节点就可以用${clusterId}的方式引用到集群列表中的第一个集群的cluster Id。 Rest Clien作业样例1 JSON消息体 通过EL表达式获取返回值 Rest Client算子可与EL表达式相配合,根据具体的场景选择不同的EL表达式来实现更丰富的用法。您可以参考本教程,根据您的实际业务需要,开发您自己的作业。EL表达式用法可参考表达式概述。 如下图所示,Rest Client调用了MRS服务查询集群列表的API,然后执行Kafka Client发送消息。 使用场景:Kafka Client发送字符串消息,消息内容为集群列表中第一个集群的cluster Id。 关键配置:在Kafka Client中使用如下EL表达式获取Rest API返回消息体中的特定字段:
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        使用教程
        获取Rest Client算子返回值教程
      • 创建自定义集群
        参数 参数说明 区域 选择区域。 不同区域的云服务产品之间内网互不相通。请就近选择靠近您业务的区域,可减少网络时延,提高访问速度。 集群名称 集群名称不允许重复。 只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 默认名称为mrsxxxx,xxxx为字母和数字的四位随机组合数,系统自动组合。 集群版本 当前版本为MRS 3.1.0。 集群类型 提供几种集群类型: 分析集群:用来做离线数据分析,提供的是Hadoop体系的组件。 流式集群:用来做流处理任务,提供的是流式处理组件。 混合集群:既可以用来做离线数据分析,也可以用来做流处理任务,提供的是Hadoop体系的组件和流式处理组件。建议同时需要做离线数据分析和流处理任务时使用混合集群。 自定义:用户可按照业务需求调整集群服务的部署方式,具体请参见 说明 MRS流式集群不支持“作业管理”和“文件管理”功能。如需在集群中安装全部组件,请选择“自定义”类型集群。 组件选择 MRS配套的组件如下: 分析集群组件 Presto:开源、分布式SQL查询引擎。 Hadoop:分布式系统基础架构。 Spark:内存分布式系统框架。(MRS 3.x版本不支持) Spark2x:Spark2x是一个对大规模数据处理的快速和通用引擎,基于开源Spark2.x版本开发。(仅MRS 3.x版本支持) Hive:建立在Hadoop上的数据仓库框架。 HBase:分布式列数据库。 Tez:提供有向无环图的分布式计算框架。 Hue:提供Hadoop UI能力,让用户通过浏览器分析处理Hadoop集群数据。 Loader:基于开源sqoop 1.99.7开发,专为Apache Hadoop和结构化数据库(如关系型数据库)设计的高效传输大量数据的工具。(MRS 3.x版本不支持) Hadoop为必选组件,且Spark与Hive组件需要配套使用。请根据业务选择搭配组件。 Flink:分布式大数据处理引擎,可对有限数据流和无限数据流进行有状态计算。 Oozie:Hadoop作业调度系统。(仅MRS 3.x版本支持) HetuEngine:HetuEngine是一个同异构大数据集的分布式SQL查询引擎。(仅MRS 3.1.x LTS版本支持) Ranger:一个基于Hadoop平台监控和管理数据安全的框架。 Impala:一种处理大量数据的SQL查询引擎。 ClickHouse:ClickHouse是一个用于联机分析(OLAP)的列式数据库管理系统(DBMS)。CPU架构为鲲鹏计算的ClickHouse集群表引擎不支持使用HDFS和Kafka。 Kudu:一种列存储管理器。 流式集群组件 Kafka:提供分布式消息订阅的系统。 Flume:提供分布式、高可用、高可靠的海量日志采集、聚合和传输系统。 ZooKeeper:一个集中的服务,它用于维护配置信息、命名、提供分布式的同步和提供分组服务。(仅MRS 3.x版本支持) Ranger:一个基于Hadoop平台监控和管理数据安全的框架。(仅MRS 3.x版本支持) 元数据 是否使用外部数据源存储元数据。 本地元数据: 元数据存储在集群本地。 数据连接:使用外部数据源元数据,若集群异常或删除时将不影响元数据,适用于存储计算分离的场景。 支持Hive或Ranger组件的集群支持该功能。 组件名 当“元数据”选择“数据连接”时该参数有效。用于表示可以设置外部数据源的组件类型。 Hive Ranger 数据连接类型 当“元数据”选择“数据连接”时该参数有效。用于表示外部数据源的类型。 Hive组件支持的数据连接类型: − RDS服务MySQL数据库− 本地数据库 Ranger组件支持的数据连接类型: − RDS服务MySQL数据库− 本地数据库 数据连接实例 当“数据连接类型”选择“RDS服务MySQL数据库”时,该参数有效。用于表示MRS集群与RDS服务数据库连接的名称,该实例必选先创建才能在此处引用。可单击“创建数据连接”进行创建,具体请参考
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        创建自定义集群
      • 工作流调度简介
        触发器名称 调用方式 详细介绍 定时触发器 同步调用 按照指定的时间间隔触发工作流执行。 HTTP触发器 同步调用 当通过HTTP请求触发工作流时,工作流会根据请求参数执行。 Kafka触发器 同步/异步调用 当消息队列中出现新消息时,触发工作流执行。 RocketMQ触发器 同步/异步调用 当消息队列中出现新消息时,触发工作流执行。 云原生网关触发器 同步调用 当通过云原生网关触发工作流时,工作流会根据请求参数执行。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        工作流调度简介
      • 服务详情概述
        工具名称 对应服务 说明 Flume配置工具 Flume 用于为Flume的服务端和客户端配置采集参数。 Flume客户端管理工具 Flume 查看Flume客户端监控信息。 Kafka Topic监控工具 Kafka 用于为Kafka的Topic提供监控与管理。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        其他服务管理操作
        服务详情概述
      • 自建Apache Kafka事件目标
        您可以通过事件规则过滤事件,将事件路由到自建Apache Kafka服务。本文以自定义事件为例介绍将事件路由到自建Apache Kafka的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权 创建自定义总线服务 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,在左侧导航栏,单击事件规则,然后单击添加事件规则。 3. 在添加事件规则页面,完成以下操作。 1. 在配置基本信息配置向导,在名称文本框输入规则名称,在描述文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式配置向导,选择匹配全部事件,然后单击下一步。 3. 在配置事件目标 配置向导,配置事件目标,事件目标服务类型选择自建Apache Kafka,目标参数描述如下,然后单击创建。 参数说明 参数 说明 示例 接入点 Apache Kafka集群broker接入点,由IP与端口号拼接而成,以逗号分隔。 172.17.0.25:9092,192.17.0.26:9092,172.17.0.27:9092 Topic topic名称。 topic1 网络配置 根据业务场景选择对应配置。 专有网络 公网网络 专有网络 VPC 网络配置选择专有网络时必填,选择集群所在的VPC。 vpc 子网 网络配置选择专有网络时必填,选择集群所在的子网。 subnet 认证模式 选择认证模式。 PLAINTEXT SASLPLAINTEXT 用户名:填写SASL用户名 密码:填写SASL密码 SASL鉴权方式:可选PLAIN和SCRAMSHA512 PLAINTEXT 消息体 选择消息体(Body)的内容,更多信息请参考事件内容转换。 完整事件 消息键值 选择消息键值(Key)的内容,更多信息请参考事件内容转换。 空
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        自建Apache Kafka事件目标
      • 升级Kakfa实例内核版本
        前提条件 Kafka实例的状态为“运行中”时,才能升级Kafka实例内核版本。 升级Kafka实例内核版本 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入Kafka实例列表页面。 4. 通过以下任意一种方法,升级Kafka实例。 在待升级内核版本的Kafka实例所在行,单击“更多 > 升级”,弹出“版本升级”对话框。 单击待升级内核版本的Kafka实例名称,进入实例详情页面。单击右上角的“ > 升级”,弹出“版本升级”对话框。 5. 选择执行时间,支持“立即执行”和“定时执行”。 如果选择“定时执行”,还需要指定执行时间。 6. 在“风险检查”区域,查看升级前的检查项是否正常。 如果检查项有异常,请先根据提示信息修改,然后单击“重新检查”。如果确认异常的检查项无需修改,请勾选“我已知晓风险。”。 7. 单击“确定”。 立即执行和定时执行查看升级是否完成的方法不同,具体如下: 表1110查看升级结果 执行方式 升级结果 立即执行 1. 单机升级实例名称,进入实例详情页。 2. 在左侧导航栏单击“实例管理 > 后台任务管理”,进入“后台任务管理”页面。 3. 在“即时任务”页签中,查看升级任务的状态。 1. 当任务的“状态”为“成功”时,表示升级完成。 2. 当任务的“状态”为“失败”时,表示升级失败,请联系客服处理。 定时执行 1. 单击升级实例名称,进入实例详情页。 2. 在左侧导航栏单击“实例管理 > 后台任务管理”,进入“后台任务管理”页面。 3. 在“定时任务”页签中,查看升级任务是否开始执行。 1. 当“状态”为“待执行”时,表示升级任务未执行。 2. 当“状态”为“成功”时,表示升级任务开始执行。 4. 在“即时任务”页签中,查看升级任务的状态。 1. 当任务的“状态”为“成功”时,表示升级完成。 2. 当任务的“状态”为“失败”时,表示升级失败,请联系客服处理。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        升级Kakfa实例内核版本
      • 应用资源
        本章节介绍故障演练服务中应用资源管理功能。 概述 应用资源 是构成应用 的组件节点,例如云主机 、云容器引擎 、分布式缓存服务Redis版 、分布式消息服务Kafka等实例。应用需要先纳管资源,才能对其进行故障演练。 添加应用资源 1. 登录应用高可用服务控制台。 2. 在左侧导航栏中,定位到故障演练 菜单,选择要操作的目标应用 ,然后单击其下的应用资源 选项,进入应用资源管理页面。 3. 在页面上方的资源类型 页签中,选择希望添加的资源类型(如云主机),然后单击添加资源按钮。 4. 在弹出的对话框中,选择资源池等筛选条件 ,单击搜索,系统将列出符合条件的、当前用户有权访问的资源清单。 5. 从列表中勾选 一个或多个资源,然后单击确认完成添加。 6. 返回应用资源列表,可以看到新添加的资源对象。 注意 列表中显示的资源状态可能存在一定延迟,如需获取最实时的信息,以该资源对应的云产品控制台为准。 删除应用资源 1. 进入目标应用的应用资源管理页面。 2. 在应用资源 列表中,找到希望删除的资源对象,单击其对应的删除按钮。 3. 在弹出的确认对话框中完成删除操作。 4. 返回应用资源列表,确认该资源对象已被成功移除。 注意 若目标资源被演练任务引用,则无法直接删除;必须先解除所有关联任务对该资源的引用,才能进行删除操作。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        应用管理
        应用资源
      • 产品优势
        本节介绍了专属云(存储独享型)的产品优势。 存储专享 存储资源独享,保证高读写性能,且保证数据安全与合规性,为您提供VIP级别的存储服务。 特性丰富 支持共享云硬盘、云硬盘备份、云主机备份、快照等功能,满足不同业务场景的需求。 场景丰富 灵活对接弹性云主机、物理机服务以及专属云(计算独享型)服务等。 高性能 采用分布式存储架构,可平滑扩展,性能线性增长,为业务提供高吞吐、高并发的存储能力。
        来自:
        帮助文档
        专属云(存储独享型)
        产品介绍
        产品优势
      • 与其他服务关系
        本文为您介绍分布式消息服务MQTT与其他服务关系。 虚拟私有云(CTVPC ,Virtual Private Cloud) 虚拟私有云为分布式消息服务MQTT提供一个逻辑隔离的区域,构建一个安全可靠、可配置和管理的虚拟网络环境。更多信息请参见虚拟私有云。 弹性云主机(CTECS,Elastic Cloud Server) 弹性云主机由 CPU、内存、镜像、云硬盘组成,同时结合VPC、安全组、数据多副本保存等能力,打造一个既高效又可靠安全的计算环境,确保分布式消息服务MQTT持久稳定运行。更多信息请参见弹性云主机。 云硬盘(CTEVS,Elastic Volume Service) 云硬盘是一种可弹性扩展的块存储设备,可以为分布式消息服务MQTT提供高性能、高可靠的块存储服务。更多信息请参见云硬盘。 弹性IP(Elastic IP,EIP) 弹性IP是可以独立申请的公网 IP 地址,包括公网IP地址与公网出口带宽服务。可以与分布式消息服务MQTT动态绑定和解绑,实现云资源的互联网访问。针对需要公网访问分布式消息服务MQTT实例的需求,用户可开通弹性IP后,在MQTT实例页面进行绑定。更多信息请参见弹性IP。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        与其他服务关系
      • 产品定义
        本文带您了解什么是分布式消息服务RocketMQ产品。 分布式消息服务RocketMQ是一款低成本、高可靠、高性能的消息中间件产品,兼容开源RocketMQ客户端,提供高效可靠的消息传递服务,解决分布式应用系统之间的消息数据通信难题,用于系统间的解耦,用户只需专注业务,无需部署运维,适用于电商、金融、政企等多样业务场景。 产品示意图 分布式消息服务RocketMQ发布订阅基本流程如下: 1、Producer连接Nameserver,产生数据放入不同的Topic; 2、对于RocketMQ,一个Topic可以分布在各个Broker上,我们可以把一个Topic分布在一个Broker上的子集定义为一个Topic分片; 3、将Topic分片再切分为若干等分,其中的一份就是一个Queue。每个Topic分片等分的Queue的数量可以不同,由用户在创建Topic时指定; 4、Consumer连接Nameserver,根据Broker分配的Queue来消费数据。 核心组件 分布式消息服务RocketMQ主要由Producer、Broker、Consumer三部分组成,其中Producer负责生产消息,Consumer负责消费消息,Broker负责存储消息。Broker在实际部署过程中对应1台或者多台服务器,每个Broker可以存储多个Topic的消息,每个Topic的消息也可以分片存储于不同的Broker。Message Queue用于存储消息的物理地址,每个Topic中的消息地址存储于多个Message Queue中。ConsumerGroup由多个Consumer实例构成。更多信息请参见产品架构。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        产品定义
      • 应用资源(1)
        本章节介绍故障演练服务中应用资源管理功能。 概述 应用资源 是构成应用 的组件节点,例如云主机 、云容器引擎 、分布式缓存服务Redis版 、分布式消息服务Kafka等实例。应用需要先纳管资源,才能对其进行故障演练。 添加应用资源 1. 登录应用高可用服务控制台。 2. 在左侧导航栏中,定位到故障演练 菜单,选择要操作的目标应用 ,然后单击其下的应用资源 选项,进入应用资源管理页面。 3. 在页面上方的资源类型 页签中,选择希望添加的资源类型(如云主机),然后单击添加资源按钮。 4. 在弹出的对话框中,选择资源池等筛选条件 ,单击搜索,系统将列出符合条件的、当前用户有权访问的资源清单。 5. 从列表中勾选 一个或多个资源,然后单击确认完成添加。 6. 返回应用资源列表,可以看到新添加的资源对象。 注意 列表中显示的资源状态可能存在一定延迟,如需获取最实时的信息,以该资源对应的云产品控制台为准。 删除应用资源 1. 进入目标应用的应用资源管理页面。 2. 在应用资源 列表中,找到希望删除的资源对象,单击其对应的删除按钮。 3. 在弹出的确认对话框中完成删除操作。 4. 返回应用资源列表,确认该资源对象已被成功移除。 注意 若目标资源被演练任务引用,则无法直接删除;必须先解除所有关联任务对该资源的引用,才能进行删除操作。
        来自:
      • 实例规格变更问题
        本文主要介绍实例规格变更问题。 Kafka扩容/缩容会影响业务吗? Kafka扩容带宽/代理个数/存储空间,都不会影响业务的使用。 Kafka扩容代理规格,在扩容过程中,节点会重启,可能造成闪断。若Topic为单副本,扩容期间无法对该Topic生产消息或消费消息。 表 变更实例规格的影响 变更配置类型 影响 基准带宽/代理数量 扩容基准带宽/代理数量不会影响原来的代理,业务也不受影响。 扩容基准带宽/代理数量时,系统会根据当前磁盘大小进行相应比例的存储空间扩容。例如扩容前实例的代理数为3,每个代理的磁盘大小为200GB,扩容后实例的代理数为10,此时代理的磁盘大小依旧为200GB,但是总磁盘大小为2000GB。 新创建的Topic才会分布在新代理上,原有Topic还分布在原有代理上,造成分区分布不均匀。通过修改Kafka分区平衡,实现将原有Topic分区的副本迁移到新代理上。 存储空间 扩容存储空间有次数限制,只能扩容20次。 扩容存储空间不会影响业务。 代理规格 若Topic为单副本,扩容/缩容期间无法对该Topic生产消息或消费消息,会造成业务中断。 若Topic为多副本,扩容/缩容代理规格不会造成服务中断,但会逐个节点重启,负载会转移到剩余节点上,建议您在业务低峰期扩容/缩容。 扩容/缩容代理规格的过程中,节点滚动重启造成分区Leader切换,会发生秒级连接闪断,在用户网络环境稳定的前提下,Leader切换时长一般为1分钟以内。多副本的Topic需要在生产客户端配置重试机制,方法如下: a. 生产客户端为Kafka开源客户端时,检查是否配置retries和retry.backoff.ms参数。建议参数值分别配置为:retries10,retry.backoff.ms1000。 b. 生产客户端为Flink客户端时,检查是否配置重启策略,配置重启策略可以参考如下代码。 StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment(); env.setRestartStrategy(RestartStrategies.fixedDelayRestart(10, Time.seconds(20))); 若实例已创建的分区数总和大于待缩容规格的实例分区数上限,此时无法缩容。不同规格配置的实例分区数上限不同,具体请参见产品规格。例如:kafka.4u8g.cluster3的实例,已创建800个分区,您想把此实例的规格缩容为kafka.2u4g.cluster3,kafka.2u4g.cluster3规格的实例分区数上限为750,此时无法缩容。 变更代理规格的时长和代理数量有关,单个代理的变更时长一般在5~10分钟,代理数量越多,规格变更时间越长。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        实例规格变更问题
      • 使用Logstash处理数据
        配置处理任务 1. 在云搜索服务实例创建页面选择Logstash实例管理,选择已经加装的Logstash实例。 2. 选择“管道管理”,选择“新建管道”。 3. 在“管道配置”窗口中,配置相关的管道配置。 python input { kafka { autooffsetreset > "latest" bootstrapservers > "ip:port,ip:port,ip:port" consumerthreads > 88 groupid > "yourgroupid" topics > ["yourkafkatopic"] codec > json } } filter { } output { elasticsearch { hosts > ["ip:port"] index > "yourindexname%{+YYYY.MM.dd}" user > "yourusername" password > "yourpassword" } } input部分用于定义数据的来源,即Logstash从哪里获取数据。这里以Kafka为例: autooffsetreset:会决定从哪个位置开始消费消息 bootstrapservers:Kafka集群的地址 consumerthreads:控制 Kafka 消费者线程的数量 groupid:消费者组ID topics:Kafka的主题列表 codec:指定数据格式 filter部分可以进行消息处理、数据解析等操作。根据实际业务规则来处理。 output部分用于将处理后的数据推送到外部系统(如数据库、消息队列、搜索引擎等)。这里以Elasticsearch为例: hosts:指定Elasticsearch的地址。 index:指定存储到Elasticsearch的索引名称,可以使用日期变量%{+YYYY.MM.dd} 来动态生成基于日期的索引。 user/password:提供Elasticsearch用户名和密码 配置完点击“预校验”,预校验会使用Logstash的语法功能来检测基础的语法,不检测逻辑和连通性。 预校验通过后可以执行后续操作。 4. 在“参数配置”中,配置相关的参数。 参数 说明 管道名称 只能包含字母、数字、中划线或下划线,且必须以字母开头,限制430个字符,实例内唯一 管道描述 限制长度50 管道工作线程数 控制Logstash同时处理事件的线程数 管道批处理大小 单个线程从input部分收集的最大事件数 管道批处理延迟 不满足批处理大小最大等待时间 队列类型 memory模式、persisted模式 memory:内存队列 persisted:磁盘队列 队列最大字节数 persisted模式生效 队列最大存储大小 队列检查点写入数 persisted模式生效 队列检查点数量 5. 启动处理任务 配置完参数后点击“保存并部署”。就启动了读取Kafka中的数据转换后写入到Elasticsearch的管道任务。 等到管道“运行中”可以尝试配置的Kafka的topics中导入一些数据,例如使用Filebeat或其他程序。 可以通过Curl命令查看logstash中配置的索引名,在Elasticsearch实例是否有数据进来。 plaintext curl " 6. 停止任务 当任务执行结束后,可以在“管道管理”页面,点击“停止”,会执行停止管道操作。
        来自:
        帮助文档
        云搜索服务
        快速入门
        使用Logstash处理数据
      • 事件模式
        事件模式是事件总线EventBridge用来过滤相关事件的模式定义。事件总线EventBridge通过事件模式过滤事件并将事件路由到事件目标,事件模式必须和匹配的事件具有相同的结构。本文介绍事件模式的常用类型。 注意事项 事件模式匹配的注意点如下: 事件必须包含事件模式中列出的所有字段名对应的过滤项。 事件模式是逐个字符精确匹配的 ,需注意大小写,匹配过程中不会对字符串进行任何标准化的操作。 事件模式匹配中,JSON对象的各个属性支持AND 语义,数组中的各元素支持OR语义。 事件模式当前匹配仅支持根据事件的属性进行过滤,暂不支持data数据过滤。 创建事件模式时,某一字段下的匹配字段需符合一定的规则,详见下文。 指定值匹配 您可以指定某个字段的值进行匹配。 例如,以下示例事件模式只匹配source是分布式消息服务Kafka的事件。下表介绍事件从事件源发出经过事件模式过滤的过程。 从事件源接收的事件 事件模式 模式过滤后的事件 plaintext { "id": "f36b49b668914b59b11cbf689xxxx712", "source": "ctyun:kafka", "type": "ctyun:kafka:Topic:Message", "specversion": "1.0", "datacontentype": "application/json; charsetutf8", "subject": "ctyun:kafka:75dcxx1eb5:topic:source1", "time": "20241203T09:48:00.696Z", "data": { "key": "test2", "value": "test1" } } plaintext { "source": [ { "exact" : "ctyun:kafka" } ] } plaintext { "id": "f36b49b668914b59b11cbf689xxxx712", "source": "ctyun:kafka", "type": "ctyun:kafka:Topic:Message", "specversion": "1.0", "datacontentype": "application/json; charsetutf8", "subject": "ctyun:kafka:75dcxx1eb5:topic:source1", "time": "20241203T09:48:00.696Z", "data": { "key": "test2", "value": "test1" } }
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件模式
      • 自定义分布式消息服务MQTT事件源
        本文介绍如何在事件总线EventBridge管理控制台添加分布式消息服务MQTT类型的自定义事件源。 前提条件 事件总线EventBridge 开通事件总线EventBridge并授权。 创建自定义总线。 分布式消息服务MQTT 开通分布式消息服务MQTT并创建实例。 操作步骤 1. 登录事件总线管理控制台。 2. 在左侧导航栏,单击事件总线。 3. 在事件总线页面,单击目标总线名称。 4. 在左侧导航栏,单击事件源。 5. 在事件源 页面,单击添加事件源。 6. 在添加自定义事件源 面板,输入名称 和描述 ,事件提供方 选择分布式消息服务MQTT,选择或填入主题等配置然后单击确认,如图1所示。 图1 创建事件源时事件提供方选择分布式服务MQTT 参数说明 参数 说明 示例 名称 事件源名。 test MQTT实例 选择MQTT实例。 instancexxx MQTT主题 选择或输入MQTT的主题。 topicxxx 事件示例 plaintext { "id": "b5771f766cdf48edb1bad15418c", "source": "sourcetest", "specversion": "1.0", "subject": "ctyun:mqtt:bb9fdb42056f1xxxxxx2ac110002:dab4124xxxxxx7eb2774f45c6a6db69:topic/
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源类型
        自定义分布式消息服务MQTT事件源
      • 功能特性
        本节介绍专属加密服务的功能特性。 专属加密(Dedicated Hardware Security Module,Dedicated HSM)是一种云上数据加密的服务,可处理加解密、签名、验签、产生密钥和密钥安全存储等操作。 Dedicated HSM为您提供的加密硬件,帮助您保护弹性云服务器上数据的安全性与完整性,满足FIPS 1402安全要求。同时,您能够对专属加密实例生成的密钥进行安全可靠的管理,也能使用多种加密算法来对数据进行可靠的加解密运算。 功能介绍 Dedicated HSM提供以下功能: 生成、存储、导入、导出和管理加密密钥(包括对称密钥和非对称密钥) 使用对称和非对称算法加密和解密数据 使用加密哈希函数计算消息摘要和基于哈希的消息身份验证代码 对数据进行加密签名(包括代码签名)并验证签名 以加密方式生成安全随机数据 Dedicated HSM支持的密码算法 支持国际通用密码算法,满足用户各种加密算法需求。 Dedicated HSM支持的密码算法 加密算法分类 通用密码算法 国密算法 对称密码算法 AES SM1、SM4、SM7 非对称密码算法 RSA(10244096) SM2 摘要算法 SHA1、SHA256、SHA384 SM3 Dedicated HSM支持的密码机类型 密码机类型 功能 适用场景 服务器加密机 数据加密/解密、数据签名/验签、数据摘要、支持MAC的生成和验证 满足各种行业应用中的基础密码运算需求,比如身份认证、数据保护、SSL密钥和运算卸载等。 金融加密机 支持PIN码的生成/加密/转换/验证 支持MAC生成及验证 支持CVV生成及验证 支持TAC生成及验证 支持常用Racal指令集 支持PBOC3.0常用指令集 满足金融领域密码运算需求,比如发卡系统、POS系统等。 签名服务器 签名/验签、编码/解码数字信封、编码/解码带签名的数字信封、证书验证 满足签名业务相关需求,比如CA系统、证书验证、大量数据的加密传输和身份认证。
        来自:
      • 配置DMS Kafka连接
        本章节主要介绍配置DMS Kafka连接。 连接DMS的Kafka队列时,相关参数详见下表:DMS Kafka连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 dmslink 服务类型 选择DMS Kafka版本,目前只有专享版。 专享版 Kafka Broker Kafka专享版实例的地址,格式为host:port。 Kafka SASLSSL 选择是否打开客户端连接Kafka专享版实例时SSL认证的开关。 开启Kafka SASLSSL,则数据加密传输,安全性更高,但性能会下降。 是 用户名 开启Kafka SASLSSL时显示该参数,表示连接DMS Kafka的用户名。 密码 开启Kafka SASLSSL时显示该参数,表示连接DMS Kafka的密码。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置DMS Kafka连接
      • 专属云(计算独享型)与专属云的关系
        本文主要介绍专属云(计算独享型)与专属云的关系 用户开通专属云服务并申请物理设备资源后,用户可在专属云的资源区域内正常使用以下服务: 弹性云主机 物理机 镜像服务 弹性伸缩 云硬盘 云硬盘备份 对象存储服务 虚拟私有云 弹性负载均衡 云监控 弹性文件服务 云主机备份 专属云(计算独享型)是专属云解决方案中的核心服务,为专属云解决方案提供了计算专属的能力,专属云为隔离的区域,用户需开通专属云后才能申请物理设备资源使用专属云(计算独享型),专属云(计算独享型)为专属云中各服务提供了计算资源进行使用。 在专属云(计算独享型)内,计算资源不计费,使用用户已申请的设备节点计算资源。如果计算资源不足,用户可以申请扩容专属计算集群,否则不能继续创建云主机。
        来自:
        帮助文档
        专属云(计算独享型)
        产品介绍
        专属云(计算独享型)与专属云的关系
      • kafkaConsumer
        介绍APM监控详情里消息监控中的KafkaConsumer相关指标的名称、含义等信息。 KafkaConsumer监控指标说明表 指标类别 指标 指标说明 数据类型 主题 (Topic,Kafka的Topic监控数据) id Clientid和IP信息 Enum 主题 (Topic,Kafka的Topic监控数据) topic Kafka的Topic名称 Enum 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerbytesconsumedrate 每秒消费字节 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerfetchsizeavg 请求获取平均字节 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerfetchsizemax 请求获取最大字节 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerrecordsconsumedrate 每秒消费消息数 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerrecordsperrequestavg 单次请求平均消息数 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerrecordsconsumedrate 总消费次数 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerrecordsperrequestavg 总消费字节数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) errorCount 错误数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) invokeCount 调用次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) maxTime 最慢调用 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) ms0To10Count 010ms次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) ms10To100Count 10100ms次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) ms100To500Count 100500ms次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) ms500To1000Count 5001000ms次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) ms1000To10000Count 110s次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) msMorethan10000Count 10s以上次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) totalTime 总响应时间 Int 汇总(Total,KafkaConsumer汇总信息统计) recordConsumedTotal 总消费次数 Int 汇总(Total,KafkaConsumer汇总信息统计) bytesConsumedTotal 总消费字节数 Int 异常 (Exception,Kafka消费异常信息) exceptionstacktrace 异常产生的堆栈信息 String 异常 (Exception,Kafka消费异常信息) exceptiontype 异常类型 String 异常 (Exception,Kafka消费异常信息) exceptioncount 错误数 Int
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        消息监控
        kafkaConsumer
      • 开通方式
        本文介绍专属云文档数据库的服务开通方式 专属云文档数据库服务的开通方法及流程: 1、开通专属云文档数据库服务需首先开通专属云服务,请确保您已开通天翼云的专属云服务; 2、天翼云网门户首页上部,在“产品 > 基础云网产品 > 专属云”中,单击“专属文档数据库”; 3、在产品详情页面中,单击“申请开通”,在申请页面查看申请流程。请与您的专属客户经理确定您的开通需求,如果没有专属客户经理,可拨打天翼云客服电话4008109889咨询。
        来自:
        帮助文档
        文档数据库服务
        计费说明
        专属云产品计费说明
        开通方式
      • 1
      • ...
      • 9
      • 10
      • 11
      • 12
      • 13
      • ...
      • 642
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      模型推理服务

      推荐文档

      全面了解天翼云⑥:网站无法访问预处理

      JAVA API

      命令窗口

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号