云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务-RocketMQ_相关内容
      • Kafka数据迁移概述
        迁移方案一:先迁生产,再迁消费 先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。 本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。 1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。 2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。 3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。 4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。 5、重启消费业务,使得消费者从新Kafka实例中消费消息。 6、观察消费者是否能正常从新Kafka实例中获取数据。 7、迁移结束。 结束 迁移方案二:同时消费,后迁生产 消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。 本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。 1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。 原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。 2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。 3、重启生产客户端,将生产业务迁移到新Kafka实例中。 4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。 5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 6、迁移结束。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        Kafka数据迁移概述
      • 产品定义
        本节主要介绍产品定义 应用运维管理(Application Operations Management)是云上应用的一站式运维管理平台,实时监控应用及云资源,采集各项指标、日志及事件等数据,提供告警及数据可视化功能,帮助您及时发现故障,全面掌握应用、资源及业务的实时运行状况。 运维遇到挑战 随着容器技术的普及,越来越多的企业通过微服务框架开发应用,业务实现更多使用云上服务,运维也转向云上的运维服务。对于云上应用的运维也提出了新的挑战: 运维人员技能要求高,配置繁杂,同时需要维护多套系统。对于分布式追踪系统,学习和使用成本高,并且稳定性差。 云化场景下的分布式应用问题分析困难主要表现在如何可视化微服务间的依赖关系、如何提高应用性能体验、如何将散落的日志进行关联分析、如何快速追踪问题。 AOM帮您解决 应用运维管理(Application Operations Management)是云上应用的一站式运维管理平台,实时监控应用及云资源,采集各项指标、日志及事件等数据,提供告警及数据可视化功能,帮助您及时发现故障,全面掌握应用、资源及业务的实时运行状况。
        来自:
        帮助文档
        应用运维管理
        产品简介
        产品定义
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • DMS for Kafka自定义策略
        本文主要介绍 DMS for Kafka自定义策略。 如果系统预置的DMS for Kafka权限,不满足您的授权要求,可以创建自定义策略。 目前云服务平台支持以下两种方式创建自定义策略: 可视化视图创建自定义策略:无需了解策略语法,按可视化视图导航栏选择云服务、操作、资源、条件等策略内容,可自动生成策略。 JSON视图创建自定义策略:可以在选择策略模板后,根据具体需求编辑策略内容;也可以直接在编辑框内编写JSON格式的策略内容。 具体创建步骤请参见:《统一身份认证服务用户指南》的“创建自定义策略”章节。本章为您介绍常用的DMS for Kafka自定义策略样例。 说明 DMS for Kafka的权限与策略基于分布式消息服务DMS,因此在IAM服务中为DMS for Kafka分配用户与权限时,请选择并使用“DMS”的权限与策略。 由于缓存的存在,对用户、用户组以及企业项目授予OBS相关的细粒度策略后,大概需要等待5分钟细粒度策略才能生效。 DMS自定义策略样例 示例1:授权用户删除实例和重启实例 { "Version": "1.1", "Statement": [ { "Effect": "Allow", "Action": [ "dms:instance:modifyStatus", "dms:instance:delete" ] } ] } 示例2:拒绝用户删除实例 拒绝策略需要同时配合其他策略使用,否则没有实际作用。用户被授予的策略中,一个授权项的作用如果同时存在Allow和Deny,则遵循Deny优先。 如果您给用户授予DMS FullAccess的系统策略,但不希望用户拥有DMS FullAccess中定义的删除实例权限,您可以创建一条拒绝删除实例的自定义策略,然后同时将DMS FullAccess和拒绝策略授予用户,根据Deny优先原则,则用户可以对DMS for Kafka执行除了删除实例外的所有操作。拒绝策略示例如下: { "Version": "1.1", "Statement": [ { "Effect": "Deny", "Action": [ "dms:instance:delete" ] } ] }
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        权限管理
        DMS for Kafka自定义策略
      • 配置DDoS封堵通知渠道
        操作步骤 1.登录天翼云官网,进入管理中心。 2.进入消息中心 3.进入消息订阅,新增消息接收人。 4.进入消息订阅的消息管理,将新增的消息接收人配置到安全消息一行中。
        来自:
        帮助文档
        DDoS基础防护
        用户指南
        配置DDoS封堵通知渠道
      • 查设备连接信息
        参数 参数类型 说明 示例 下级对象 clientid String 设备ID keepalive Integer 心跳时间 mqueuelen Integer 队列消息长度 maxinflight Integer 暂无描述 createdat String 创建时间 connectedat String 连接时间 sendmsg Integer 发送消息数量 mqueuedropped Integer 队列丢弃消息数量 recvmsg Integer 接收消息数量 ipaddress String ip port Integer 端口 username String 用户名 cleanstart Boolean 持久化会话
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        4.0版本接口
        设备管理
        查设备连接信息
      • 获取Topic列表信息
        参数 参数类型 说明 示例 下级对象 topicName String 主题名称 topic001 readQueueNums Integer 读队列数量 4 writeQueueNums Integer 写队列数量 4 perm Integer 读写权限 2 6 topicFilterType String 主题过滤标志 topicSysFlag Integer 主题系统标识 0 表示非系统主题 1 系统内部主题 0 order Boolean 是否为顺序消息 false remark String 备注 clusterName String 集群名 brokerName String 集群名称 brokerId String 代理id 0 messageType String 消息类型 NORMAL普通消息 NORMAL
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        Topic管理
        获取Topic列表信息
      • 使用类
        本节主要介绍使用类问题 如何处理开启了安全认证的微服务引擎专享版开启IPv6后服务注册失败? 创建微服务引擎专享版时,当选择开启了IPv6的VPC网络时,创建引擎支持IPv6网络。当部署服务使用IPv6网段且选择容器部署时,选择的CCE集群需要开启IPv6双栈开关。如果选择的CCE集群资源没有开启IPv6开关,就会导致服务网络不通,报错“java.net.SocketException: Protocol family unavailable”。解决办法: 1、 修改部署了微服务应用的环境,添加开启了“IPv6双栈”开关的CCE集群 2、 重新部署应用 微服务和普通应用有什么不同? 微服务是一种架构模式,其核心是将一个单体应用分成多个部分进行开发。所以微服务架构的应用程序,其本质上是一个分布式应用。 基于微服务架构构建的应用程序,可以让业务变化更快,整体系统可靠性更高。 开源 ServiceComb 与 CSE 是什么关系? CSE Java SDK是ServiceComb的商业版本,其大部分组件来自于开源的ServiceComb,同时提供一些公有云对接的能力、安全、分布式数据一致性等商业能力。这部分开发框架代码可以免费使用但是没有开源。
        来自:
      • 运行Kafka作业
        本章节主要介绍如何运行Kafka作业。 用户可将自己开发的程序提交到MRS中,执行程序并获取结果。本章节教您在Kafka主题中产生和消费消息。 暂不支持通过界面提交Kafka作业,请通过后台功能来提交作业。 通过后台提交作业 先查询ZooKeeper和Kafka的实例地址,再运行Kafka作业。 查询实例地址(3.x版本) 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.请参考访问FusionInsight Manager(MRS 3.x及之后版本),跳转至FusionInsight Manager页面。然后选择“服务 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 4.选择“服务 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 查询实例地址(3.x之前版本) a. 登录MRS管理控制台。 b. 选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 c. 在MRS集群详情页面,选择“组件管理 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 d. 选择“组件管理 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 运行Kafka作业 MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。 1.在集群信息页面的“节点管理”页签中单击Master2节点名称,进入弹性云主机管理控制台。 2.单击页面右上角的“远程登录”。 3.根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 4.执行如下命令初始化环境变量。 source /opt/Bigdata/client/bigdataenv 5.如果当前集群已开启Kerberos认证,执行以下命令认证当前用户。如果当前集群未开启Kerberos认证,则无需执行该步骤。 kinit MRS集群用户 例如, kinit admin 6.执行如下命令,创建kafka topic。 kafkatopics.sh create zookeeper ZooKeeper角色实例IP:2181/kafkapartitions 2 replicationfactor 2 topic 7.在topic test中产生消息。 首先执行命令kafkaconsoleproducer.sh brokerlist Kafka角色实例IP:9092 topic producer.config /opt/Bigdata/client/Kafka/kafka/config/producer.properties 。 然后输入指定的内容作为生产者产生的消息,输入完成后按回车发送消息。如果需要结束产生消息,使用“Ctrl + C”退出任务。 8.消费topic test中的消息。 kafkaconsoleconsumer.sh topic bootstrapserver Kafka角色实例IP:9092 consumer.config/opt/Bigdata/client/Kafka/kafka/config/consumer.properties 说明 如果集群开启Kerberos认证,则执行如上两个命令时请修改端口号9092为21007,详见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Kafka作业
      • 删除虚拟主机
        介绍分布式消息服务RabbitMQ删除虚拟主机的操作内容。 场景描述 在RabbitMQ中,删除虚拟主机(Virtual Host)的场景描述如下: 应用迁移或清理:当需要迁移应用或进行系统清理时,可能需要删除不再使用的虚拟主机。例如,如果某个应用已经停用或迁移到其他环境,可以删除相关的虚拟主机,以释放资源和减少管理工作。 安全审计和合规性要求:根据安全审计和合规性要求,可能需要删除不再需要的虚拟主机。例如,当某个虚拟主机涉及敏感数据或权限配置存在问题时,可以选择删除该虚拟主机以避免安全风险。 故障处理和恢复:在某些情况下,当虚拟主机发生故障或出现严重问题时,可能需要删除虚拟主机并重新创建。这可以作为一种故障处理和恢复的手段,以解决虚拟主机相关的问题并恢复正常运行。 系统资源管理和优化:如果虚拟主机过多或占用了过多的系统资源,可能需要删除一些不再使用或不需要的虚拟主机。这有助于优化系统资源的利用和提高整体性能。 需要注意的是,在删除虚拟主机之前,务必确保相关的队列、交换机和绑定等对象已经被删除或迁移。否则,删除虚拟主机可能会导致数据丢失或系统异常。 操作步骤 (1)在虚拟主机管理页面,在目标虚拟主机行点击“删除”,即可删除虚拟主机。 注意事项: 删除虚拟主机会删除该虚拟主机内所有数据且不可恢复,请谨慎操作。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        虚拟主机管理
        删除虚拟主机
      • 认证用户列表
        本文为您介绍分布式消息服务MQTT的API认证授权认证用户列表。 GET URI参数说明: 参数名 参数类型 是否必填 参数描述 prodInstId String 是 实例Id pageNum Integer 否 页码 pageSize Integer 否 分页size 返回参数说明 参数名 参数类型 参数描述 code Integer 状态码 message String 描述状态 returnObj Object 返回数据 returnObj.total Integer 数据总量 returnObj.list Object 数据列表 returnObj.list.prodInstId String 实例id returnObj.list.username String 用户名 returnObj.list.createTime String 用户创建时间 returnObj.list.remark Object 备注 returnObj.pageNum Integer 当前页数 returnObj.pageSize Integer 页面大小 returnObj.size Integer 页面数据数量 returnObj.startRow Integer 开始id returnObj.endRow Integer 结束id returnObj.pages Integer 页数 returnObj.prePage Integer 前面页数 returnObj.nextPage Integer 后面页数 returnObj.isFirstPage String 是否第一页 returnObj.isLastPage String 是否最后一页 returnObj.hasPreviousPage String 是否有前一页 returnObj.hasNextPage String 是否有后一页 returnObj.navigatePages Integer 导航页面数 returnObj.navigatepageNums Listr 导航页面列表 returnObj.navigateFirstPage Integer 第一页导航页面 returnObj.navigateLastPage Integer 最后一页导航页面 返回示例:成功 {"code": 200,"message": "success","returnObj": {"total": 1,"list": [{"id": 31,"tenantId": 3127,"prodInstId": "f94ab53a94de4bebbec21bfa2e740315","username": "test","password": "","createTime": "20220830 19:29:42","remark": ""}],"pageNum": 1,"pageSize": 10,"size": 1,"startRow": 1,"endRow": 1,"pages": 1,"prePage": 0,"nextPage": 0,"isFirstPage": true,"isLastPage": true,"hasPreviousPage": false,"hasNextPage": false,"navigatePages": 8,"navigatepageNums": [1],"navigateFirstPage": 1,"navigateLastPage": 1}} 返回示例:失败 {"returnObj": null,"message": "error","statusCode": "900"}
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        认证授权
        认证用户列表
      • RabbitMqProducer
        介绍APM监控详情里消息监控中的RabbitMqProducer相关指标的名称、含义等信息。 RabbitMqProducer监控指标说明表 指标类别 指标 指标说明 数据类型 异常 exceptionstacktrace 异常产生的堆栈信息 String 异常 exceptioncount 错误数 Int Exchange监控 messagedestination Exchange名 Enum Exchange监控 messageerrorcount 推送消息的错误次数 Int Exchange监控 messagecount 推送消息数 Int Exchange监控 messagetotalpayload 推送字节数 Int Exchange监控 Max(messagetotalpayload) 单次推送最大字节数 Int Exchange监控 messagemaxcost 推送消息的最大响应时间 Int Exchange监控 sum(messagecost) 推送消息的总响应时间 Int Total监控 messagetotalpayload 推送字节数 Int Total监控 messagecount 推送消息数 Int Total监控 messageerrorcount 推送消息的错误次数 Int Total监控 messagemaxcost 推送消息的最大响应时间 Int Total监控 sum(messagecost) 推送消息的总响应时间 Int Total监控 ms0To10Count 010ms次数 Int Total监控 ms10To100Count 10100ms次数 Int Total监控 ms100To500Count 100500ms次数 Int Total监控 ms500To1000Count 5001000ms次数 Int Total监控 ms1000To10000Count 110s次数 Int Total监控 msMorethan10000Count 10s以上次数 Int
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        消息监控
        RabbitMqProducer
      • 开启告警通知
        此小节介绍如何开启/关闭告警通知。 为AntiDDoS开启告警通知以后,当实例受到DDoS攻击时,您会收到提醒消息(短信或Email)。否则,无论DDoS攻击流量多大,您都只能登录管理控制台自行查看,无法收到报警信息。 告警通知默认关闭,用户可以根据实际情况手动开启告警通知。 前提条件 已获取管理控制台的登录账号与密码,且该账号已购买公网IP。 操作步骤 1. 登录管理控制台。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表中,选择“安全 > AntiDDoS流量清洗”,进入AntiDDoS服务管理界面。 4. 选择“告警通知”页签,设置告警通知。 告警通知参数说明: 参数 说明 告警通知开关 开启或关闭告警通知,说明如下: :开启状态。 :关闭状态。 消息通知主题 可以选择使用已有的主题,或者单击“查看消息通知主题”创建新的主题。 5. 单击“应用”,完成告警通知设置。 相关操作 关闭告警通知:在告警通知配置页面,将告警通知状态参数置为关闭状态,即可关闭告警通知。 说明 关闭告警通知后,无论DDoS攻击流量多大,您都只能登录管理控制台自行查看,无法收到报警信息。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        用户指南
        开启告警通知
      • 消费位点
        每个 Topic 会有多个分区,每个分区会统计当前消息的总条数,这个称为最大位点 MaxOffset。Kafka Consumer 会按顺序依次消费分区内的每条消息,记录已经消费了的消息条数,称为ConsumerOffset。 剩余的未消费的条数(也称为消息堆积量) MaxOffset ConsumerOffset
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消费位点
      • 集成简介
        集成类型 集成的服务名称 请求响应(RequestComplete) 等待系统回调(WaitForSystemCallback) 等待任务令牌(WaitForTaskToken) 优化集成 函数计算 yes no yes 优化集成 云工作流(CloudFlow) yes yes yes 优化集成 消息服务robotmsg yes no yes 优化集成 HTTP yes no yes 优化集成 对象存储 ZOS yes no no 普通集成 所有天翼云产品OpenAPI yes no no
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        工作流集成
        集成简介
      • 应用场景
        本文主要介绍应用场景 APM应用广泛,下面介绍APM的典型应用场景,以便您深入了解。 应用异常诊断 业务痛点 分布式微服务架构下的应用,虽然丰富多样且开发效率高,但是给传统运维诊断技术带来了巨大挑战。以电商为例,主要遇到如下问题: 定位问题难 客服人员接到用户反馈商品购买出现问题后,会交由技术人员排查解决。而微服务分布式架构中的一个业务请求通常要经过多个服务/节点后返回结果。一旦请求出现错误,往往要在多台机器上反复翻看日志才能初步定位问题,对简单问题的排查也常常涉及多个团队。 架构梳理难 在业务逻辑变得逐渐复杂以后,很难从代码层面去梳理某个应用依赖了哪些下游服务(数据库、HTTP API、缓存),以及被哪些外部调用所依赖。业务逻辑的梳理、架构的治理和容量的规划(例如促销活动的准备过程中,需要为每个应用准备多少台机器)也变得更加困难。 业务实现 APM提供大型分布式应用异常诊断能力,当应用出现崩溃或请求失败时,通过应用拓扑+调用链下钻能力分钟级完成问题定位。 可视化拓扑:应用拓扑自发现,异常应用实例无处躲藏。 调用链追踪:发现异常应用后,通过调用链一键下钻,代码问题根因清晰可见。 慢SQL分析:提供数据库、SQL语句的调用次数、响应时间、错误次数等关键指标视图,支持异常SQL语句导致的数据库性能问题分析。 应用体验管理
        来自:
        帮助文档
        应用性能管理
        产品介绍
        应用场景
      • 会中聊天
        在会议过程中,参会者可以发送和接收实时消息,支持群聊和一对一私聊。 功能说明 可选择发送消息给会中所有人或指定单个成员。当成员收到聊天消息时,底部工具栏的“聊天”按钮右上角会显示红色气泡提示有未读消息。 聊天窗口仅支持发送文字消息,不支持发送图片或文件。 主持人可管理聊天权限,包括限制部分参会者的聊天发送功能。 操作步骤 1. 进入会议后,点击工具栏中的“聊天”图标,打开右侧聊天窗口。 2. 在聊天窗口顶部的下拉框中选择消息接收对象(所有人或指定成员),也可以在成员列表中选择对应的成员后点击“私聊”。 3. 在输入框输入消息内容,点击发送按钮即可发送消息。 注意事项 请勿在聊天中发送违法或违规内容,保持良好会议秩序。 如果消息发送失败,请检查网络连接并重试。
        来自:
        帮助文档
        AOne会议
        用户指南
        会中聊天
      • 功能类
        我在什么场景下使用本地盘? IO 密集型应用 : 大型关系数据库、NoSQL、ElasticSearch 等 IO 密集型应用,对存储延时要求低,可使用云服务器自带的 NVME SSD 本地盘类型,但需注意单点故障风险。 大数据型业务: EMR 等大数据处理业务,本身对延迟不敏感,且上层有数据冗余,可以容忍单点数据故障,可使用云服务器自带的 SATA HDD 本地盘类型。 分布式应用: NoSQL、MPP数据仓库、分布式文件系统等应用。这类应用本身具备分布式数据冗余能力,本地SATA SSD盘能够提供低时延、高随机IO、高吞吐量的IO性能,但需注意单点故障风险。 我在什么场景下使用云硬盘? 如果追求性价比,且要求中等随机读写性能以及高可靠性的云硬盘产品,推荐使用高IO,例如开发与测试业务、企业应用和系统盘等场景; 对IO要求高、超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统、 IO密集型应用、中小型关系数据库和NoSQL数据库等场景,推荐使用超高IO。 云硬盘支持缩容吗? 暂不支持。如需缩容可以考虑适当减少云硬盘数量。 云硬盘支持扩容吗? 支持数据盘和系统盘扩容。可以在ECX控制台云硬盘列表,选择操作更多磁盘扩容操作。
        来自:
        帮助文档
        智能边缘云
        常见问题
        功能类
      • 查看分区状态
        介绍分布式消息服务Kafka查看分区状态功能操作内容。 场景描述 Kafka查看分区状态的场景描述如下: 监控和故障排查:通过查看分区状态,可以了解每个分区的健康状况和数据处理情况。如果某个分区出现延迟或者数据丢失等问题,可以及时发现并进行故障排查和修复。 性能优化:通过查看分区状态,可以了解每个分区的负载情况和数据处理速度。如果某个分区负载过高或者处理速度较慢,可以采取相应的措施进行性能优化,如增加分区数量或者优化消费者的消费能力。 容量规划:通过查看分区状态,可以了解每个分区的数据大小和数据增长趋势。根据分区状态,可以进行容量规划,确保有足够的存储空间来存储数据,并预测未来的数据增长趋势。 数据迁移和重平衡:当需要进行数据迁移或者重平衡时,查看分区状态可以帮助确定合适的迁移方案和平衡策略。通过了解每个分区的状态和负载情况,可以更好地规划和执行数据迁移和重平衡操作。 容错和冗余管理:通过查看分区状态,可以了解每个分区的副本分布情况和数据冗余情况。如果某个分区的副本数量不足或者副本分布不均衡,可以采取相应的措施来提高数据的容错性和冗余能力。 总之,Kafka查看分区状态的场景包括监控和故障排查、性能优化、容量规划、数据迁移和重平衡,以及容错和冗余管理等,以确保系统的稳定性、性能和可靠性。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看分区状态
      • 删除Topic
        本节主要介绍分布式消息服务Kafka的删除Topic步骤 场景描述 在以下场景中,可以考虑删除Kafka主题: 主题不再使用:当一个主题不再被使用或者不再需要时,可以选择删除该主题。这可能是因为业务需求变化、数据不再有效或者主题被合并到其他主题中等原因。 数据保留策略变更:Kafka中可以设置数据保留策略,即数据在主题中的保留时间或者大小。当需要更改数据保留策略时,可能需要删除旧的主题并创建一个新的主题来应用新的策略。 清理测试数据:在测试环境中,经常需要清理旧的测试数据,以确保环境的可用空间和性能。当测试数据不再需要时,可以删除相应的主题来释放资源。 主题配置错误:在创建主题时,可能会出现配置错误或者误操作导致主题创建失败或者无法正常使用。在这种情况下,可以删除有问题的主题,并重新创建正确的主题配置。 需要注意的是,在删除主题之前,需要确保主题中的数据已经备份或者不再需要。删除主题将永久删除主题中的所有数据,并且无法恢复。因此,在删除主题之前,建议先进行备份或者确认数据不再需要。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后进入Topic管理页面。 (5)在Topic所在行,点击其右侧的“更多按钮”,再单击“删除”,并选择确定。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        删除Topic
      • 什么时候记录日志
        本页介绍天翼云TeleDB数据库什么时候记录日志相关参数。 clientminmessages (enum) 控制被发送给客户端的消息级别。有效值是DEBUG5、 DEBUG4、DEBUG3、DEBUG2、 DEBUG1、LOG、NOTICE、 WARNING、ERROR、FATAL和PANIC。每个级别都包括其后的所有级别。级别越靠后,被发送的消息越少。默认值是NOTICE。注意LOG在这里有与logminmessages中不同的排名。 logminmessages (enum) 控制哪些消息级别被写入到服务器日志。有效值是DEBUG5、DEBUG4、 DEBUG3、DEBUG2、DEBUG1、 INFO、NOTICE、WARNING、 ERROR、LOG、FATAL和 PANIC。每个级别都包括以后的所有级别。级别越靠后,被发送的消息越少。默认值是WARNING。注意LOG在这里有与logminmessages中不同的排名。只有超级用户可以改变这个设置。 logminerrorstatement (enum) 控制哪些导致一个错误情况的SQL 语句被记录在服务器日志中。任何指定严重级别或更高级别的消息的当前 SQL 语句将被包括在日志项中。有效值是DEBUG5、 DEBUG4、DEBUG3、 DEBUG2、DEBUG1、 INFO、NOTICE、 WARNING、ERROR、 LOG、 FATAL和PANIC。默认值是ERROR,它表示导致错误、日志消息、致命错误或恐慌错误的语句将被记录在日志中。要有效地关闭记录失败语句,将这个参数设置为PANIC。只有超级用户可以改变这个设置。 logmindurationstatement (integer) 如果语句运行至少指定的毫秒数,将导致记录每一个这种完成的语句的持续时间。将这个参数设置为零将打印所有语句的执行时间。设置为1 (默认值)将停止记录语句持续时间。例如,如果你设置它为250ms,那么所有运行 250ms 或更久的 SQL 语句将被记录。启用这个参数可以有助于追踪应用中未优化的查询。只有超级用户可以改变这个设置。对于使用扩展查询协议的客户端,解析、绑定和执行步骤的持续时间将被独立记录。注意当把这个选项和logstatement一起使用时,已经被logstatement记录的语句文本不会在持续时间日志消息中重复。如果你没有使用syslog,我们推荐你使用loglineprefix记录 PID 或会话 ID,这样你可以使用进程 ID 或会话 ID 把语句消息链接到后来的持续时间消息。 表1解释了TeleDB所使用的消息严重级别。如果日志输出被发送到syslog或 Windows 的eventlog,严重级别会按照表中所示进行转换。 表61 表1 消息严重级别 严重性 用法 syslog eventlog DEBUG1..DEBUG5 为开发者提供连续的更详细的信息。 DEBUG INFORMATION INFO 提供用户隐式要求的信息,例如来自VACUUM VERBOSE的输出。 INFO INFORMATION NOTICE 提供可能对用户有用的信息,例如长标识符截断提示。 NOTICE INFORMATION WARNING 提供可能出现的问题的警告,例如在一个事务块外COMMIT。 NOTICE WARNING ERROR 报告一个导致当前命令中断的错误。 WARNING ERROR LOG 报告管理员可能感兴趣的信息,例如检查点活动。 INFO INFORMATION FATAL 报告一个导致当前会话中断的错误。 ERR ERROR PANIC 报告一个导致所有数据库会话中断的错误。 CRIT ERROR
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        错误报告和日志相关参数
        什么时候记录日志
      • 在函数中如何访问其他服务?
        函数计算提供了一个统一的执行环境,使得您的函数能够无缝地访问和集成各种云服务和其他资源。 无论是天翼云提供的服务如消息服务、对象存储服务、数据库服务,还是您自建的服务,甚至是调用其他函数计算实例,这些操作在函数内部执行时,与您在本地环境中的操作体验是一致的。 要实现这些服务的访问,您需要确保您的函数代码中包含了必要的依赖库。这些依赖库应当与您的函数代码一起被打包,并上传至函数计算平台。一旦部署完成,您的函数就可以在执行时调用这些依赖库,从而与外部服务进行交互。
        来自:
        帮助文档
        函数计算
        常见问题
        访问其他服务
        在函数中如何访问其他服务?
      • 配置HTTP响应头
        本文简述HTTP响应头的配置方法。 功能介绍 HTTP响应头是HTTP响应消息的基本组成部分,可以携带指定的响应参数传给客户端。通过配置特定的HTTP响应头,可以实现在边缘节点返回消息头时携带已配置的响应头。常用于告诉客户端边缘节点响应文件的类型,例如添加响应头ContentType: text/xml表明边缘节点响应的文件类型是xml文件。也可以用于实现跨域资源访问。 前提条件 您已经完成添加服务域名,如果您未添加,请参考添加服务域名。 操作步骤 1.登录边缘安全加速控制台,选择【域名】【基础配置】,在域名列表中选中需要配置的域名。 2.进入域名配置详情页面后,选择【头部修改】,单击【编辑配置】按钮。 3.选择【HTTP响应头】后单击【增加规则】按钮。 4.输入响应头的参数名,参数仅支持大小写字母、数字、下划线、中划线。 5.点击确定。 配置界面
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        头部修改
        配置HTTP响应头
      • 事件监控
        操作场景 介绍指导用户创建事件监控的告警通知。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择“管理与部署 > 云监控服务”,进入“云监控服务”页面。 3. 在左侧导航栏选择“事件监控”,进入“事件监控”页面。 4. 在事件列表页面,单击页面右上角的“创建告警规则”。 5. 在“创建告警规则”界面,配置参数。 表1 告警内容参数说明 参数 参数说明 名称 系统会随机产生一个名称,用户也可以进行修改。 描述 告警规则描述(此参数非必填项)。 归属企业项目 可选择已有的企业项目,或单击“创建企业项目”进行创建。 告警类型 用于指定告警规则对应的告警类型。 事件类型 用于指定告警规则对应指标的事件类型。 事件来源 事件来源的云服务名称。选择云数据库GeminiDB。 监控范围 创建事件监控针对的资源范围。 选择类型 选择自定义创建。 告警策略 事件名称:用户操作系统资源的动作,如用户登录,用户登出,为一个瞬间的操作动作。事件监控支持的操作事件请参见本章节 事件监控支持的事件说明。用户根据需要选择触发方式、告警级别。 单击开启“发送通知”,生效时间默认为全天,若没有您想要选择的主题,可以单击下一行的“创建主题”进行添加。 表2 发送通知 参数 参数说明 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。 通知对象 需要发送告警通知的对象,可选择“云账号联系人”或主题。 云账号联系人:注册账号时的手机和邮箱。 主题:消息发布或客户端订阅通知的特定事件类型,若此处没有需要的主题,需先创建主题并订阅该主题。 生效时间 该告警规则仅在生效时间内发送通知消息。如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 出现告警 6. 配置完成后,单击“立即创建”,完成告警规则的创建。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        监控与告警
        事件监控
      • 配置Syslog北向参数
        参数区域 参数名称 参数说明 Syslog协议 服务IP模式 设置对接服务器IP地址模式,可选择“IPV4”或者“IPV6”。 Syslog协议 服务IP 设置对接服务器IP地址。 Syslog协议 服务端口 设置对接端口。 Syslog协议 协议 设置协议类型,可选值: l TCP l UDP Syslog协议 安全级别 设置上报消息的严重程度,取值范围: l Emergency l Alert l Critical l Error l Warning l Notice l Informational(默认值) l Debug 说明 “安全级别”和“Facility”共同组成发出消息的优先级( Priority )。 优先级( Priority ) “Facility” × 8 +“安全级别” “安全级别”和“Facility”各项对应的数值请参考下表:“安全级别”和“Facility”字段数值编码 。 Syslog协议 Facility 设置产生日志的模块。可选项参考下表:“安全级别”和“Facility”字段数值编码 ,推荐使用默认值“local use 0 (local0)”。 Syslog协议 标识符 设置产品标识,默认为“FusionInsight Manager”。 标识符可以包含字母、数字、下划线、 空格、、 $、 {、 }、 点、中划线,并且不能超过256个字符。 报告信息 报文格式 设置告警报告的消息格式,具体要求请参考界面帮助。 报文格式可以包含字母、数字、下划线、 空格、、 $、 {、 }、 点、中划线,并且不能超过1024个字符。 说明 报文格式中信息域的说明请参考下表:报文格式信息域表。 报告信息 报告信息类型 设置需要上报的告警类型。 报告信息 上报消息级别 设置需要上报的告警级别。 未恢复告警上报设置 周期上报未恢复告警 设置是否按指定周期上报未清除的告警。打开开关表示启用此功能,关闭开关表示不启用。开关默认为关闭。 未恢复告警上报设置 间隔时间(分钟) 设置周期上报告警的时间间隔,当“周期上报未恢复告警”开关设置为打开时启用。单位为分钟,默认值为“15”,支持范围为“5”到“1440”(1天)。 心跳设置 上报心跳 设置是否开启周期上报Syslog心跳消息。打开开关表示开启此功能,关闭开关表示不启用。开关默认为关闭。 心跳设置 心跳周期(分钟) 设置周期上报心跳的时间间隔,当“上报心跳”开关设置为打开时启用。单位为分钟,默认值为“15”,支持范围为“1”到“60”。 心跳设置 心跳报文 设置心跳上报的内容,当“上报心跳”开关设置为打开时启用,不能为空。支持数字、字母、下划线、竖线、冒号、空格、英文逗号和句号字符,长度小于等于256。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        对接设置
        配置Syslog北向参数
      • Chat对话API
        描述 接口名称 对话 请求路径 功能描述 针对描述会话的消息列表,模型将返回响应
        来自:
        帮助文档
        训推服务
        API参考
        推理服务API
        API
        Chat对话API
      • 网络安全产品推荐
        DDoS基础防护封禁通知 当您的IP遭受的DDoS攻击峰值超过IP的防护阈值时,会对IP所在服务器和网络的稳定性造成影响,根据用户协议,IP会进入封禁状态,封禁时间持续24小时。 该封禁状态有通知,会通过IP所属账户的站内信、短信、邮箱渠道进行通知,告知封禁信息。除了账户所有人,您还可以在天翼云控制台消息中心消息订阅消息管理安全消息处配置多个消息接收人,比如将您业务的多位值班或运维人员配置到联系人中,此时安全消息短信会通知告知多个人。 通知内容仅有攻击峰值,不包含攻击源信息。DDoS基础防护主要防护IP所在网络的整体稳定,非单个IP的攻击分析产品,仅能提供目的IP级别遭受DDoS大流量攻击的攻击峰值信息,无法提供源IP级别的信息。若客户需要源IP级别的分析,可选择任意渠道和厂商的DDoS高防产品防护自身业务IP并免于触发DDoS封禁,不局限于天翼云的DDoS高防产品。天翼云和其他云厂商均提供有DDoS高防产品,一般可提供高防IP隐藏业务IP、大流量攻击防护和攻击源分析能力。
        来自:
        帮助文档
        弹性云主机 ECS
        安全合规
        网络安全
        网络安全产品推荐
      • KafkaProducer监控
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 topic (topic,kafka的topic监控数据。) id id clientid和ip信息 ENUM LAST topic (topic,kafka的topic监控数据。) topic topic kafka的topic名称 ENUM LAST topic (topic,kafka的topic监控数据。) byteRate 每秒发送字节 每秒发送字节 Byte INT AVG topic (topic,kafka的topic监控数据。) recordErrorRate 每秒错误数 每秒错误数 INT AVG topic (topic,kafka的topic监控数据。) recordRetryRate 每秒重试数 每秒重试数 INT AVG topic (topic,kafka的topic监控数据。) recordSendRate 每秒发送数 每秒发送数 INT AVG topic (topic,kafka的topic监控数据。) seqIds Producer生成序列号 Producer生成序列号 STRING LAST topic (topic,kafka的topic监控数据。) recordSendTotal 总发送次数 总发送次数 INT SUM topic (topic,kafka的topic监控数据。) byteTotal 总发送字节数 总发送字节数 INT SUM KafkaProducer汇总(total,KafkaProducer汇总信息统计。) recordSendTotal 总发送次数 总发送次数 INT SUM KafkaProducer汇总(total,KafkaProducer汇总信息统计。) byteTotal 总发送字节数 总发送字节数 INT SUM 异常 (exception,kafka发送异常信息。) causeType 异常发生类 异常发生类 ENUM LAST 异常 (exception,kafka发送异常信息。) exceptionType 异常类 异常类 ENUM LAST 异常 (exception,kafka发送异常信息。) count 数量 异常数量 INT SUM 异常 (exception,kafka发送异常信息。) message 异常消息 异常消息 STRING LAST 异常 (exception,kafka发送异常信息。) stackTrace 异常堆栈 异常堆栈 CLOB LAST 发送方法(doSendMethod,发送消息方法监控。) topic topic topic ENUM LAST 发送方法(doSendMethod,发送消息方法监控。) concurrentMax 最大并发 最大并发 INT MAX 发送方法(doSendMethod,发送消息方法监控。) errorCount 错误数 错误数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) invokeCount 调用次数 调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) maxTime 最慢时延 最慢时延 INT MAX 发送方法(doSendMethod,发送消息方法监控。) range1 0–10ms 时延在010ms范围调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) range2 10–100ms 时延在10–100ms范围调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) range3 100–500ms 时延在100–500ms范围调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) range4 500–1000ms 时延在500–1000ms范围调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) range5 1–10s 时延在1–10s范围调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) range6 10sn 时延在10s以上调用次数 INT SUM 发送方法(doSendMethod,发送消息方法监控。) totalTime 总时延 调用总耗时 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        消息队列
        KafkaProducer监控
      • 重试策略
        配置项 解释说明 最大重试次数 用于配置异步调用流程中的消息最大重试次数,取值范围[0,8]。函数计算在默认情况下,对异步触发失败的消息进行3次重试,您可以根据业务需求减少或增加对异步调用的重试。 消息最大存活时长 用于配置异步调用流程中的消息最大存活时长,取值范围[1,2592000],单位为秒。该时长从触发异步调用时开始计算,到该消息出队准备进行处理为止。如果超过配置的消息最大存活时长,该条消息将被丢弃。
        来自:
        帮助文档
        函数计算
        用户指南
        函数调用
        异步调用
        重试策略
      • 配置总览
        服务信息 说明 示例 单元组 服务所属的单元组,即路由规则分组。 订单业务 站点 服务所属的站点。 北京站点 服务类型 组件类型,或者应用所属的单元。 组件类型:应用网关/数据库/消息。 应用所属的单元:业务单元名称及路由范围。 应用网关 北京业务单元[0,499] 服务名称 组件或者应用服务名称,例如数据源名称。 广州订单数据库 服务地址 组件或者应用服务地址,例如数据库服务地址。 192.168.0.:3306 服务状态 组件或者应用的状态。 在线:探测组件实例状态为在线。 离线:探测组件实例状态为离线。 已配置:组件已配置。 未配置:组件未配置。 在线 操作 查看组件服务的详细信息。
        来自:
        帮助文档
        应用高可用
        用户指南
        应用容灾多活
        资源管理
        配置总览
      • API调用
        APP认证的API,第三方怎么调用? 您需要把AppKey和AppSecret提供给第三方,然后第三方通过SDK调用。具体SDK的调用步骤请参见“开发指南 > 使用APP认证调用API”。 是否支持移动应用调用API? API支持被移动应用调用。使用APP认证时,将移动应用的AppKey和AppSecrect替换SDK中的AppKey和AppSecrect进行APP签名。 如何实现WebSocket数据传输? API网关支持WebSocket数据传输,在创建API时,请求协议中的HTTP相当于WebSocket的ws,HTTPS相当于WebSocket的wss。 API调用是否支持长连接 API网关支持长连接,但注意适当使用,避免占用太多资源。 策略后端有多个时,怎么匹配和执行 当您的API配置了多个策略后端,API网关会按顺序进行匹配,匹配到其中一个立即执行API请求转发,不会进行后续的匹配。 当策略后端都没有匹配成功,则按照默认后端执行API请求的转发。 API调用对请求的响应消息体限制 API调用对请求的响应消息体大小没有限制。 如何通过APIG访问公网后端服务? 通过开启公网入口访问,允许外部服务调用API。
        来自:
        帮助文档
        API网关
        常见问题
        API调用
      • 产品规格
        本节介绍分布式消息服务Kafka的产品规格,以便您正确理解和使用。 Kafka实例规格 (1)以下规格适用于 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点 注意 通用型规格已调整为白名单特性,如需了解该规格参数请联系技术支持。 单机版实例面向用户体验和业务测试场景,无法保证性能和高可用。如果需要在生产环境使用Kafka实例,建议购买集群版实例。 集群版 Intel计算增强型 实例规格 代理个数 单个代理TPS 单个代理分区上限 单个代理建议主题数 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围 单个代理流量规格(MB/S) kafka.2u4g.cluster 350 30000 250 250 20 2000 300500000GB 100 kafka.4u8g.cluster 350 100000 500 500 100 4000 300500000GB 200 kafka.8u16g.cluster 350 150000 1000 1000 150 4000 300500000GB 375 kafka.12u24g.cluster 350 200000 1500 1500 200 4000 300500000GB 625 kafka.16u32g.cluster 350 250000 2000 2000 200 4000 300500000GB 750 kafka.24u48g.cluster 350 250000 2000 2000 200 4000 300500000GB 1125 kafka.32u64g.cluster 350 250000 2000 2000 200 4000 300500000GB 1500 kafka.48u96g.cluster 350 250000 2000 2000 200 4000 300500000GB 2250 kafka.64u128g.cluster 350 250000 2000 2000 200 4000 300500000GB 3000
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品规格
      • 1
      • ...
      • 23
      • 24
      • 25
      • 26
      • 27
      • ...
      • 530
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      模型推理服务

      应用托管

      科研助手

      推荐文档

      分组数据管理

      产品版本

      导入数据

      邀请参会方

      代金券使用后是否可以退换?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号