云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务RabbitMQ_相关内容
      • 消息订阅
        本页介绍天翼云TeleDB数据库消息订阅。 消息订阅可以对不同类型的消息进行订阅,选择需要的消息类型,保存后,订阅类型的消息会在触发时进行推送。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据库资源与生命周期管理服务操作指南
        消息中心
        消息订阅
      • Python客户端连接配置
        安装依赖 plaintext pip3 install pahomqtt 代码示例 python import ssl import random from paho.mqtt import client as pahoclient 填入您在mqtt控制台创建的ACL账号密码。 USERNAME "yourusername" AUTHPASSWORD "yourpassword" 是否使用tls加密传输 isTls True class MQTTClient: def init(self): 填写mqtt云消息服务的接入点,去掉:{端口号}部分 self.broker "tcp://localhost" 指定连接客户端的id self.clientid "ctgmqttclienttest" self.client None def onconnect(self, client, userdata, flags, rc): 连接建立成功 if rc 0: print("Connected to MQTT Broker!") else: print(f"Failed to connect, return code {rc}") def ondisconnect(self, client, userdata, rc): 连接丢失 print(f"Disconnected with result code {rc}") 可以在这里添加重连逻辑 def onmessage(self, client, userdata, msg): 收到消息的回调 print(f"Received {msg.payload.decode()} from {msg.topic} topic") def onpublish(self, client, userdata, mid): 成功发送消息到服务端 print(f"Message {mid} published successfully") def connectmqtt(self): 创建客户端实例 self.client pahoclient.Client(clientidself.clientid) self.client.usernamepwset(USERNAME, AUTHPASSWORD) 设置回调函数 self.client.onconnect self.onconnect self.client.ondisconnect self.ondisconnect self.client.onmessage self.onmessage self.client.onpublish self.onpublish 设置TLS if isTls: 创建不验证证书的SSL上下文 context ssl.createdefaultcontext() context.checkhostname False context.verifymode ssl.CERTNONE self.client.tlssetcontext(context) 设置其他连接选项 self.client.connect(self.broker.replace("tcp://", "").replace("ssl://", ""), port8883 if isTls else 1883) self.client.loopstart()
        来自:
        帮助文档
        分布式消息服务MQTT
        最佳实践
        Python客户端连接配置
      • Kafka数据迁移概述
        迁移方案一:先迁生产,再迁消费 先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。 本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。 1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。 2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。 3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。 4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。 5、重启消费业务,使得消费者从新Kafka实例中消费消息。 6、观察消费者是否能正常从新Kafka实例中获取数据。 7、迁移结束。 结束 迁移方案二:同时消费,后迁生产 消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。 本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。 1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。 原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。 2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。 3、重启生产客户端,将生产业务迁移到新Kafka实例中。 4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。 5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 6、迁移结束。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        Kafka数据迁移概述
      • 应用场景
        本文主要介绍应用场景 APM应用广泛,下面介绍APM的典型应用场景,以便您深入了解。 应用异常诊断 业务痛点 分布式微服务架构下的应用,虽然丰富多样且开发效率高,但是给传统运维诊断技术带来了巨大挑战。以电商为例,主要遇到如下问题: 定位问题难 客服人员接到用户反馈商品购买出现问题后,会交由技术人员排查解决。而微服务分布式架构中的一个业务请求通常要经过多个服务/节点后返回结果。一旦请求出现错误,往往要在多台机器上反复翻看日志才能初步定位问题,对简单问题的排查也常常涉及多个团队。 架构梳理难 在业务逻辑变得逐渐复杂以后,很难从代码层面去梳理某个应用依赖了哪些下游服务(数据库、HTTP API、缓存),以及被哪些外部调用所依赖。业务逻辑的梳理、架构的治理和容量的规划(例如促销活动的准备过程中,需要为每个应用准备多少台机器)也变得更加困难。 业务实现 APM提供大型分布式应用异常诊断能力,当应用出现崩溃或请求失败时,通过应用拓扑+调用链下钻能力分钟级完成问题定位。 可视化拓扑:应用拓扑自发现,异常应用实例无处躲藏。 调用链追踪:发现异常应用后,通过调用链一键下钻,代码问题根因清晰可见。 慢SQL分析:提供数据库、SQL语句的调用次数、响应时间、错误次数等关键指标视图,支持异常SQL语句导致的数据库性能问题分析。 应用体验管理
        来自:
        帮助文档
        应用性能管理
        产品介绍
        应用场景
      • 运行Kafka作业
        本章节主要介绍如何运行Kafka作业。 用户可将自己开发的程序提交到MRS中,执行程序并获取结果。本章节教您在Kafka主题中产生和消费消息。 暂不支持通过界面提交Kafka作业,请通过后台功能来提交作业。 通过后台提交作业 先查询ZooKeeper和Kafka的实例地址,再运行Kafka作业。 查询实例地址(3.x版本) 1.登录MRS管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.请参考访问FusionInsight Manager(MRS 3.x及之后版本),跳转至FusionInsight Manager页面。然后选择“服务 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 4.选择“服务 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 查询实例地址(3.x之前版本) a. 登录MRS管理控制台。 b. 选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 c. 在MRS集群详情页面,选择“组件管理 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。记录ZooKeeper角色实例中任意一个的IP地址即可。 d. 选择“组件管理 > Kafka > 实例”,查看Kafka角色实例的IP地址。记录Kafka角色实例中任意一个的IP地址即可。 运行Kafka作业 MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。 1.在集群信息页面的“节点管理”页签中单击Master2节点名称,进入弹性云主机管理控制台。 2.单击页面右上角的“远程登录”。 3.根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 4.执行如下命令初始化环境变量。 source /opt/Bigdata/client/bigdataenv 5.如果当前集群已开启Kerberos认证,执行以下命令认证当前用户。如果当前集群未开启Kerberos认证,则无需执行该步骤。 kinit MRS集群用户 例如, kinit admin 6.执行如下命令,创建kafka topic。 kafkatopics.sh create zookeeper ZooKeeper角色实例IP:2181/kafkapartitions 2 replicationfactor 2 topic 7.在topic test中产生消息。 首先执行命令kafkaconsoleproducer.sh brokerlist Kafka角色实例IP:9092 topic producer.config /opt/Bigdata/client/Kafka/kafka/config/producer.properties 。 然后输入指定的内容作为生产者产生的消息,输入完成后按回车发送消息。如果需要结束产生消息,使用“Ctrl + C”退出任务。 8.消费topic test中的消息。 kafkaconsoleconsumer.sh topic bootstrapserver Kafka角色实例IP:9092 consumer.config/opt/Bigdata/client/Kafka/kafka/config/consumer.properties 说明 如果集群开启Kerberos认证,则执行如上两个命令时请修改端口号9092为21007,详见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Kafka作业
      • 修改Topic
        场景描述 RocketMQ中的Topic一旦创建后,通常是不允许直接修改的。因为Topic的配置信息会对消息的发送和消费产生影响,直接修改Topic可能导致消息的发送和消费出现问题。 然而,有时候可能会遇到需要修改Topic配置的场景,以下是一些可能的场景描述: 扩展Topic的分区数量:当Topic的消息量增加,原有的分区数量可能无法满足需求时,可以考虑扩展Topic的分区数量。通过修改Topic的配置,增加分区数量,可以提高消息的并发处理能力和负载均衡性能。 修改Topic的生产模式,可能会对消息的发送和消费产生影响,生产模式决定了消息发送的方式和策略,直接修改可能会导致消息发送和消费的异常。 修改Topic的读写权限,需要考虑到消费者和生产者的配置,以确保它们能够正确地读写Topic。 修改Topic备注,用户按照业务需要修改注意备注。 需要注意的是,修改Topic的配置可能会对消息的发送和消费产生影响,因此在进行修改之前,需要谨慎评估和测试,确保不会对现有的消息系统造成不可逆的影响。在实际操作中,建议在创建Topic时就根据业务需求进行充分的规划和配置,避免频繁修改Topic的配置。 操作步骤 1、进入Topic管理菜单,在Topic列表点击【编辑】按钮,进入编辑Topic窗口。 2、Topic修改时,不能修改集群、broker、topic名称;可以修改分区数、读写权限、备注;
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        修改Topic
      • 功能类
        我在什么场景下使用本地盘? IO 密集型应用 : 大型关系数据库、NoSQL、ElasticSearch 等 IO 密集型应用,对存储延时要求低,可使用云服务器自带的 NVME SSD 本地盘类型,但需注意单点故障风险。 大数据型业务: EMR 等大数据处理业务,本身对延迟不敏感,且上层有数据冗余,可以容忍单点数据故障,可使用云服务器自带的 SATA HDD 本地盘类型。 分布式应用: NoSQL、MPP数据仓库、分布式文件系统等应用。这类应用本身具备分布式数据冗余能力,本地SATA SSD盘能够提供低时延、高随机IO、高吞吐量的IO性能,但需注意单点故障风险。 我在什么场景下使用云硬盘? 如果追求性价比,且要求中等随机读写性能以及高可靠性的云硬盘产品,推荐使用高IO,例如开发与测试业务、企业应用和系统盘等场景; 对IO要求高、超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统、 IO密集型应用、中小型关系数据库和NoSQL数据库等场景,推荐使用超高IO。 云硬盘支持缩容吗? 暂不支持。如需缩容可以考虑适当减少云硬盘数量。 云硬盘支持扩容吗? 支持数据盘和系统盘扩容。可以在ECX控制台云硬盘列表,选择操作更多磁盘扩容操作。
        来自:
        帮助文档
        智能边缘云
        常见问题
        功能类
      • 开启告警通知
        此小节介绍如何开启/关闭告警通知。 为AntiDDoS开启告警通知以后,当实例受到DDoS攻击时,您会收到提醒消息(短信或Email)。否则,无论DDoS攻击流量多大,您都只能登录管理控制台自行查看,无法收到报警信息。 告警通知默认关闭,用户可以根据实际情况手动开启告警通知。 前提条件 已获取管理控制台的登录账号与密码,且该账号已购买公网IP。 操作步骤 1. 登录管理控制台。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表中,选择“安全 > AntiDDoS流量清洗”,进入AntiDDoS服务管理界面。 4. 选择“告警通知”页签,设置告警通知。 告警通知参数说明: 参数 说明 告警通知开关 开启或关闭告警通知,说明如下: :开启状态。 :关闭状态。 消息通知主题 可以选择使用已有的主题,或者单击“查看消息通知主题”创建新的主题。 5. 单击“应用”,完成告警通知设置。 相关操作 关闭告警通知:在告警通知配置页面,将告警通知状态参数置为关闭状态,即可关闭告警通知。 说明 关闭告警通知后,无论DDoS攻击流量多大,您都只能登录管理控制台自行查看,无法收到报警信息。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        用户指南
        开启告警通知
      • 日志通知
        配置项 说明 名称 Syslog接收接口的配置名称。 服务器地址 Syslog服务器地址,可为IP或者域名。 端口 Syslog服务器端口,默认为端口为514。 发送协议 选择日志传输的协议类型,支持UDP或TCP。 是否发送消息头 决定是否在日志数据前添加自定义Syslog消息头(含主机名及用户名)。 内容协议格式 定义日志数据的格式,默认为RFC3164。 报文默认主机名 可以指定日志中使用的默认主机名。 报文默认应用名 可以指定日志中使用的默认应用程序名。 程序模块编码 Syslog协议RFC5424 规定,消息中必须包含“程序模块编码”,Syslog服务端使用该编码区分发送消息的程序来源。与服务器端配置保持一致即可。 严重等级 选择向Syslog服务器发送告警所标记的严重等级。等级分为:Emergency、Alert、Critical、Error、Warning、Notice、Informational、Debug。 与服务器端配置保持一致即可。 审计日志模板 发送审计日志信息的模板,可修改默认模板,具体字段请依据填写说明编辑。 告警日志模板 发送告警日志信息的模板,可修改默认模板,具体字段请依据填写说明编辑。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        通知发送
        日志通知
      • 查看分区状态
        介绍分布式消息服务Kafka查看分区状态功能操作内容。 场景描述 Kafka查看分区状态的场景描述如下: 监控和故障排查:通过查看分区状态,可以了解每个分区的健康状况和数据处理情况。如果某个分区出现延迟或者数据丢失等问题,可以及时发现并进行故障排查和修复。 性能优化:通过查看分区状态,可以了解每个分区的负载情况和数据处理速度。如果某个分区负载过高或者处理速度较慢,可以采取相应的措施进行性能优化,如增加分区数量或者优化消费者的消费能力。 容量规划:通过查看分区状态,可以了解每个分区的数据大小和数据增长趋势。根据分区状态,可以进行容量规划,确保有足够的存储空间来存储数据,并预测未来的数据增长趋势。 数据迁移和重平衡:当需要进行数据迁移或者重平衡时,查看分区状态可以帮助确定合适的迁移方案和平衡策略。通过了解每个分区的状态和负载情况,可以更好地规划和执行数据迁移和重平衡操作。 容错和冗余管理:通过查看分区状态,可以了解每个分区的副本分布情况和数据冗余情况。如果某个分区的副本数量不足或者副本分布不均衡,可以采取相应的措施来提高数据的容错性和冗余能力。 总之,Kafka查看分区状态的场景包括监控和故障排查、性能优化、容量规划、数据迁移和重平衡,以及容错和冗余管理等,以确保系统的稳定性、性能和可靠性。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看分区状态
      • 删除Topic
        本节主要介绍分布式消息服务Kafka的删除Topic步骤 场景描述 在以下场景中,可以考虑删除Kafka主题: 主题不再使用:当一个主题不再被使用或者不再需要时,可以选择删除该主题。这可能是因为业务需求变化、数据不再有效或者主题被合并到其他主题中等原因。 数据保留策略变更:Kafka中可以设置数据保留策略,即数据在主题中的保留时间或者大小。当需要更改数据保留策略时,可能需要删除旧的主题并创建一个新的主题来应用新的策略。 清理测试数据:在测试环境中,经常需要清理旧的测试数据,以确保环境的可用空间和性能。当测试数据不再需要时,可以删除相应的主题来释放资源。 主题配置错误:在创建主题时,可能会出现配置错误或者误操作导致主题创建失败或者无法正常使用。在这种情况下,可以删除有问题的主题,并重新创建正确的主题配置。 需要注意的是,在删除主题之前,需要确保主题中的数据已经备份或者不再需要。删除主题将永久删除主题中的所有数据,并且无法恢复。因此,在删除主题之前,建议先进行备份或者确认数据不再需要。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后进入Topic管理页面。 (5)在Topic所在行,点击其右侧的“更多按钮”,再单击“删除”,并选择确定。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        删除Topic
      • Kafka客户端使用规范
        本节主要介绍Kafka客户端使用规范。 consumer使用规范 1、consumer的owner线程需确保不会异常退出,避免客户端无法发起消费请求,阻塞消费。 2、确保处理完消息后再做消息commit,避免业务消息处理失败,无法重新拉取处理失败的消息。 3、consumer不能频繁加入和退出group,频繁加入和退出,会导致consumer频繁做rebalance,阻塞消费。 4、consumer数量不能超过topic分区数,否则会有consumer拉取不到消息。 5、consumer需周期poll,维持和server的心跳,避免心跳超时,导致consumer频繁加入和退出,阻塞消费。 6、consumer拉取的消息本地缓存应有大小限制,避免OOM(Out of Memory)。 7、consumer session设置为30秒,session.timeout.ms30000。 8、Kafka不能保证消费重复的消息,业务侧需保证消息处理的幂等性。 9、消费线程退出要调用consumer的close方法,避免同一个组的其他消费者阻塞sesstion.timeout.ms的时间。 producer使用规范 1、同步复制客户端需要配合使用:acksall 2、配置发送失败重试:retries3 3、发送优化:linger.ms0 4、生产端的JVM内存要足够,避免内存不足导致发送阻塞 topic使用规范 配置要求:推荐3副本,同步复制,最小同步副本数为2,且同步副本数不能等于topic副本数,否则宕机1个副本会导致无法生产消息。 创建方式:支持选择是否开启kafka自动创建Topic的开关。选择开启后,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 单topic最大分区数建议为100。 topic副本数为3(当前版本限制,不可调整)。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka客户端使用规范
      • 消费位点
        每个 Topic 会有多个分区,每个分区会统计当前消息的总条数,这个称为最大位点 MaxOffset。Kafka Consumer 会按顺序依次消费分区内的每条消息,记录已经消费了的消息条数,称为ConsumerOffset。 剩余的未消费的条数(也称为消息堆积量) MaxOffset ConsumerOffset
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消费位点
      • MoquetteBroker监控
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 异常(exception,MoquetteBroker调用的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,MoquetteBroker调用的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常(exception,MoquetteBroker调用的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常(exception,MoquetteBroker调用的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常(exception,MoquetteBroker调用的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST MoquetteBroker版本(version,MoquetteBroker版本。) MoquetteBroker主题汇总(total,MoquetteBroker主题汇总信息统计。) version 版本 版本 STRING LAST MoquetteBroker版本(version,MoquetteBroker版本。) MoquetteBroker主题汇总(total,MoquetteBroker主题汇总信息统计。) msgSentCount 消息推送次数 总的消息推送次数 INT SUM MoquetteBroker版本(version,MoquetteBroker版本。) MoquetteBroker主题汇总(total,MoquetteBroker主题汇总信息统计。) bytesSent 消息推送字节数 总消息推送字节数 INT SUM MoquetteBroker版本(version,MoquetteBroker版本。) MoquetteBroker主题汇总(total,MoquetteBroker主题汇总信息统计。) msgReceivedCount 消息接收次数 总消息接收次数 INT SUM MoquetteBroker版本(version,MoquetteBroker版本。) MoquetteBroker主题汇总(total,MoquetteBroker主题汇总信息统计。) bytesReceived 消息接收字节数 总消息接收字节数 INT SUM MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) topic 主题 主题 ENUM LAST MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) subscribeCount 订阅数 订阅数 INT SUM MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) msgSentCount 消息推送次数 消息推送次数 INT SUM MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) bytesSent 消息推送字节数 消息推送字节数 INT SUM MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) msgReceivedCount 消息接收次数 消息接收次数 INT SUM MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) bytesReceived 消息接收字节数 消息接收字节数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        物联网
        MoquetteBroker监控
      • 配置HTTP响应头
        本文简述HTTP响应头的配置方法。 功能介绍 HTTP响应头是HTTP响应消息的基本组成部分,可以携带指定的响应参数传给客户端。通过配置特定的HTTP响应头,可以实现在边缘节点返回消息头时携带已配置的响应头。常用于告诉客户端边缘节点响应文件的类型,例如添加响应头ContentType: text/xml表明边缘节点响应的文件类型是xml文件。也可以用于实现跨域资源访问。 前提条件 您已经完成添加服务域名,如果您未添加,请参考添加服务域名。 操作步骤 1.登录边缘安全加速控制台,选择【域名】【基础配置】,在域名列表中选中需要配置的域名。 2.进入域名配置详情页面后,选择【头部修改】,单击【编辑配置】按钮。 3.选择【HTTP响应头】后单击【增加规则】按钮。 4.输入响应头的参数名,参数仅支持大小写字母、数字、下划线、中划线。 5.点击确定。 配置界面
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        头部修改
        配置HTTP响应头
      • 什么时候记录日志
        本页介绍天翼云TeleDB数据库什么时候记录日志相关参数。 clientminmessages (enum) 控制被发送给客户端的消息级别。有效值是DEBUG5、 DEBUG4、DEBUG3、DEBUG2、 DEBUG1、LOG、NOTICE、 WARNING、ERROR、FATAL和PANIC。每个级别都包括其后的所有级别。级别越靠后,被发送的消息越少。默认值是NOTICE。注意LOG在这里有与logminmessages中不同的排名。 logminmessages (enum) 控制哪些消息级别被写入到服务器日志。有效值是DEBUG5、DEBUG4、 DEBUG3、DEBUG2、DEBUG1、 INFO、NOTICE、WARNING、 ERROR、LOG、FATAL和 PANIC。每个级别都包括以后的所有级别。级别越靠后,被发送的消息越少。默认值是WARNING。注意LOG在这里有与logminmessages中不同的排名。只有超级用户可以改变这个设置。 logminerrorstatement (enum) 控制哪些导致一个错误情况的SQL 语句被记录在服务器日志中。任何指定严重级别或更高级别的消息的当前 SQL 语句将被包括在日志项中。有效值是DEBUG5、 DEBUG4、DEBUG3、 DEBUG2、DEBUG1、 INFO、NOTICE、 WARNING、ERROR、 LOG、 FATAL和PANIC。默认值是ERROR,它表示导致错误、日志消息、致命错误或恐慌错误的语句将被记录在日志中。要有效地关闭记录失败语句,将这个参数设置为PANIC。只有超级用户可以改变这个设置。 logmindurationstatement (integer) 如果语句运行至少指定的毫秒数,将导致记录每一个这种完成的语句的持续时间。将这个参数设置为零将打印所有语句的执行时间。设置为1 (默认值)将停止记录语句持续时间。例如,如果你设置它为250ms,那么所有运行 250ms 或更久的 SQL 语句将被记录。启用这个参数可以有助于追踪应用中未优化的查询。只有超级用户可以改变这个设置。对于使用扩展查询协议的客户端,解析、绑定和执行步骤的持续时间将被独立记录。注意当把这个选项和logstatement一起使用时,已经被logstatement记录的语句文本不会在持续时间日志消息中重复。如果你没有使用syslog,我们推荐你使用loglineprefix记录 PID 或会话 ID,这样你可以使用进程 ID 或会话 ID 把语句消息链接到后来的持续时间消息。 表1解释了TeleDB所使用的消息严重级别。如果日志输出被发送到syslog或 Windows 的eventlog,严重级别会按照表中所示进行转换。 表61 表1 消息严重级别 严重性 用法 syslog eventlog DEBUG1..DEBUG5 为开发者提供连续的更详细的信息。 DEBUG INFORMATION INFO 提供用户隐式要求的信息,例如来自VACUUM VERBOSE的输出。 INFO INFORMATION NOTICE 提供可能对用户有用的信息,例如长标识符截断提示。 NOTICE INFORMATION WARNING 提供可能出现的问题的警告,例如在一个事务块外COMMIT。 NOTICE WARNING ERROR 报告一个导致当前命令中断的错误。 WARNING ERROR LOG 报告管理员可能感兴趣的信息,例如检查点活动。 INFO INFORMATION FATAL 报告一个导致当前会话中断的错误。 ERR ERROR PANIC 报告一个导致所有数据库会话中断的错误。 CRIT ERROR
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        错误报告和日志相关参数
        什么时候记录日志
      • Chat对话API
        描述 接口名称 对话 请求路径 功能描述 针对描述会话的消息列表,模型将返回响应
        来自:
        帮助文档
        训推服务
        API参考
        推理服务API
        API
        Chat对话API
      • 配置Syslog北向参数
        参数区域 参数名称 参数说明 Syslog协议 服务IP模式 设置对接服务器IP地址模式,可选择“IPV4”或者“IPV6”。 Syslog协议 服务IP 设置对接服务器IP地址。 Syslog协议 服务端口 设置对接端口。 Syslog协议 协议 设置协议类型,可选值: l TCP l UDP Syslog协议 安全级别 设置上报消息的严重程度,取值范围: l Emergency l Alert l Critical l Error l Warning l Notice l Informational(默认值) l Debug 说明 “安全级别”和“Facility”共同组成发出消息的优先级( Priority )。 优先级( Priority ) “Facility” × 8 +“安全级别” “安全级别”和“Facility”各项对应的数值请参考下表:“安全级别”和“Facility”字段数值编码 。 Syslog协议 Facility 设置产生日志的模块。可选项参考下表:“安全级别”和“Facility”字段数值编码 ,推荐使用默认值“local use 0 (local0)”。 Syslog协议 标识符 设置产品标识,默认为“FusionInsight Manager”。 标识符可以包含字母、数字、下划线、 空格、、 $、 {、 }、 点、中划线,并且不能超过256个字符。 报告信息 报文格式 设置告警报告的消息格式,具体要求请参考界面帮助。 报文格式可以包含字母、数字、下划线、 空格、、 $、 {、 }、 点、中划线,并且不能超过1024个字符。 说明 报文格式中信息域的说明请参考下表:报文格式信息域表。 报告信息 报告信息类型 设置需要上报的告警类型。 报告信息 上报消息级别 设置需要上报的告警级别。 未恢复告警上报设置 周期上报未恢复告警 设置是否按指定周期上报未清除的告警。打开开关表示启用此功能,关闭开关表示不启用。开关默认为关闭。 未恢复告警上报设置 间隔时间(分钟) 设置周期上报告警的时间间隔,当“周期上报未恢复告警”开关设置为打开时启用。单位为分钟,默认值为“15”,支持范围为“5”到“1440”(1天)。 心跳设置 上报心跳 设置是否开启周期上报Syslog心跳消息。打开开关表示开启此功能,关闭开关表示不启用。开关默认为关闭。 心跳设置 心跳周期(分钟) 设置周期上报心跳的时间间隔,当“上报心跳”开关设置为打开时启用。单位为分钟,默认值为“15”,支持范围为“1”到“60”。 心跳设置 心跳报文 设置心跳上报的内容,当“上报心跳”开关设置为打开时启用,不能为空。支持数字、字母、下划线、竖线、冒号、空格、英文逗号和句号字符,长度小于等于256。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        对接设置
        配置Syslog北向参数
      • MRS作业简介
        本章节主要介绍MRS作业。 MRS作业简介 MRS作业是MRS为用户提供的程序执行平台,用于处理和分析用户数据。作业创建完成后,所有的作业列表信息展示在“作业管理”页面中,您可以查看所有的作业列表,也可以创建和管理作业。若集群详情页面不支持“作业管理”页签,请通过后台方式提交作业。 MRS集群处理的数据源来源于OBS或HDFS,HDFS是Hadoop分布式文件系统(Hadoop Distributed File System),OBS即对象存储服务,是一个基于对象的海量存储服务,为客户提供海量、安全、高可靠、低成本的数据存储能力。MRS可以直接处理OBS中的数据,客户可以基于管理控制台Web界面和OBS客户端对数据进行浏览、管理和使用,同时可以通过REST API接口方式单独或集成到业务程序进行管理和访问数据。 用户创建作业前需要将本地数据上传至OBS系统,MRS使用OBS中的数据进行计算分析。当然MRS也支持将OBS中的数据导入至HDFS中,使用HDFS中的数据进行计算分析。数据完成处理和分析后,您可以将数据存储在HDFS中,也可以将集群中的数据导出至OBS系统。需要注意,HDFS和OBS也支持存储压缩格式的数据,目前支持存储bz2、gz压缩格式的数据。 作业分类 目前MRS集群支持创建和管理如下几种类型的作业。如果处于“运行中”状态的集群创建作业失败,请查看集群管理页面中相关组件健康情况。操作方法,请参见查看和定制集群监控指标。 MapReduce:提供快速并行处理大量数据的能力,是一种分布式数据处理模式和执行环境。MRS当前支持提交MapReduce Jar程序。 Spark:基于内存进行计算的分布式计算框架,MRS当前支持提交SparkSubmit、Spark Script和Spark SQL作业。 −SparkSubmit:支持提交Spark Jar和Spark python程序,执行Spark application,计算和处理用户数据。 −SparkScript:支持提交SparkScript脚本,批量执行Spark SQL语句。 −Spark SQL:运用Spark提供的类似SQL的Spark SQL语言,实时查询和分析用户数据。 lHive:建立在Hadoop基础上的开源的数据仓库。MRS当前支持提交HiveScript脚本,和执行Hive SQL语句。 lFlink:提供一个分布式大数据处理引擎,可对有限数据流和无限数据流进行有状态计算。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        MRS作业简介
      • 查设备连接信息
        参数 参数类型 说明 示例 下级对象 clientid String 设备ID keepalive Integer 心跳时间 mqueuelen Integer 队列消息长度 maxinflight Integer 暂无描述 createdat String 创建时间 connectedat String 连接时间 sendmsg Integer 发送消息数量 mqueuedropped Integer 队列丢弃消息数量 recvmsg Integer 接收消息数量 ipaddress String ip port Integer 端口 username String 用户名 cleanstart Boolean 持久化会话
        来自:
        帮助文档
        分布式消息服务MQTT
        API参考
        API
        2022-04-13
        4.0版本接口
        设备管理
        查设备连接信息
      • 产品规格
        本节介绍分布式消息服务Kafka的产品规格,以便您正确理解和使用。 Kafka实例规格 (1)以下规格适用于 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 节点 注意 通用型规格已调整为白名单特性,如需了解该规格参数请联系技术支持。 单机版实例面向用户体验和业务测试场景,无法保证性能和高可用。如果需要在生产环境使用Kafka实例,建议购买集群版实例。 集群版 Intel计算增强型 实例规格 代理个数 单个代理TPS 单个代理分区上限 单个代理建议主题数 单个代理建议消费组数 单个代理客户端总连接数上限 存储空间范围 单个代理流量规格(MB/S) kafka.2u4g.cluster 350 30000 250 250 20 2000 300500000GB 100 kafka.4u8g.cluster 350 100000 500 500 100 4000 300500000GB 200 kafka.8u16g.cluster 350 150000 1000 1000 150 4000 300500000GB 375 kafka.12u24g.cluster 350 200000 1500 1500 200 4000 300500000GB 625 kafka.16u32g.cluster 350 250000 2000 2000 200 4000 300500000GB 750 kafka.24u48g.cluster 350 250000 2000 2000 200 4000 300500000GB 1125 kafka.32u64g.cluster 350 250000 2000 2000 200 4000 300500000GB 1500 kafka.48u96g.cluster 350 250000 2000 2000 200 4000 300500000GB 2250 kafka.64u128g.cluster 350 250000 2000 2000 200 4000 300500000GB 3000
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品规格
      • 网络安全产品推荐
        DDoS基础防护封禁通知 当您的IP遭受的DDoS攻击峰值超过IP的防护阈值时,会对IP所在服务器和网络的稳定性造成影响,根据用户协议,IP会进入封禁状态,封禁时间持续24小时。 该封禁状态有通知,会通过IP所属账户的站内信、短信、邮箱渠道进行通知,告知封禁信息。除了账户所有人,您还可以在天翼云控制台消息中心消息订阅消息管理安全消息处配置多个消息接收人,比如将您业务的多位值班或运维人员配置到联系人中,此时安全消息短信会通知告知多个人。 通知内容仅有攻击峰值,不包含攻击源信息。DDoS基础防护主要防护IP所在网络的整体稳定,非单个IP的攻击分析产品,仅能提供目的IP级别遭受DDoS大流量攻击的攻击峰值信息,无法提供源IP级别的信息。若客户需要源IP级别的分析,可选择任意渠道和厂商的DDoS高防产品防护自身业务IP并免于触发DDoS封禁,不局限于天翼云的DDoS高防产品。天翼云和其他云厂商均提供有DDoS高防产品,一般可提供高防IP隐藏业务IP、大流量攻击防护和攻击源分析能力。
        来自:
        帮助文档
        弹性云主机 ECS
        安全合规
        网络安全
        网络安全产品推荐
      • 配置DDoS封堵通知渠道
        操作步骤 1.登录天翼云官网,进入管理中心。 2.进入消息中心 3.进入消息订阅,新增消息接收人。 4.进入消息订阅的消息管理,将新增的消息接收人配置到安全消息一行中。
        来自:
        帮助文档
        DDoS基础防护
        用户指南
        配置DDoS封堵通知渠道
      • 集成简介
        集成类型 集成的服务名称 请求响应(RequestComplete) 等待系统回调(WaitForSystemCallback) 等待任务令牌(WaitForTaskToken) 优化集成 函数计算 yes no yes 优化集成 云工作流(CloudFlow) yes yes yes 优化集成 消息服务robotmsg yes no yes 优化集成 HTTP yes no yes 优化集成 对象存储 ZOS yes no no 普通集成 所有天翼云产品OpenAPI yes no no
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        工作流集成
        集成简介
      • 事件监控
        操作场景 介绍指导用户创建事件监控的告警通知。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择“管理与部署 > 云监控服务”,进入“云监控服务”页面。 3. 在左侧导航栏选择“事件监控”,进入“事件监控”页面。 4. 在事件列表页面,单击页面右上角的“创建告警规则”。 5. 在“创建告警规则”界面,配置参数。 表1 告警内容参数说明 参数 参数说明 名称 系统会随机产生一个名称,用户也可以进行修改。 描述 告警规则描述(此参数非必填项)。 归属企业项目 可选择已有的企业项目,或单击“创建企业项目”进行创建。 告警类型 用于指定告警规则对应的告警类型。 事件类型 用于指定告警规则对应指标的事件类型。 事件来源 事件来源的云服务名称。选择云数据库GeminiDB。 监控范围 创建事件监控针对的资源范围。 选择类型 选择自定义创建。 告警策略 事件名称:用户操作系统资源的动作,如用户登录,用户登出,为一个瞬间的操作动作。事件监控支持的操作事件请参见本章节 事件监控支持的事件说明。用户根据需要选择触发方式、告警级别。 单击开启“发送通知”,生效时间默认为全天,若没有您想要选择的主题,可以单击下一行的“创建主题”进行添加。 表2 发送通知 参数 参数说明 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。 通知对象 需要发送告警通知的对象,可选择“云账号联系人”或主题。 云账号联系人:注册账号时的手机和邮箱。 主题:消息发布或客户端订阅通知的特定事件类型,若此处没有需要的主题,需先创建主题并订阅该主题。 生效时间 该告警规则仅在生效时间内发送通知消息。如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 出现告警 6. 配置完成后,单击“立即创建”,完成告警规则的创建。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        监控与告警
        事件监控
      • 系统配置
        配置邮件外发 邮件服务器,为改密提示和消息告警等通知提供邮件发送服务。 根据需求设置私有邮箱服务器或是公共邮箱服务器,并可测试所填写服务器信息是否有效。 目前支持两种发送方式,分别为SMTP和Exchange,其中Exchange仅支持Exchange2010版本。 本小节主要介绍如何配置系统邮件外发。 前提条件 已获取“系统”模块管理权限。 操作步骤 1 登录云堡垒机系统。 2 选择“系统 > 系统配置 > 外发配置”,进入系统外发配置管理页面。 外发配置 3 在“邮件配置”区域,单击“编辑”,弹出邮件配置窗口。 分别选择SMTP和Exchange发送方式,并根据界面提示配置邮件发送方式。 4 单击“确认”,返回外发配置页面,即可查看已配置信息。结束 配置短信外发 系统短信外发为手机短信方式登录、重置密码和消息告警等验证或通知,提供短信发送服务。 目前可选择配置“内置”和“自定义”两种类型,其中“自定义”类型还可选择通用“短信网关”和云短信网关。 “内置”由系统的短信网关来提供短信服务。 自定义通用“短信网关”,输入正确的URL地址和API参数后,可测试所填写服务器信息是否有效。 本小节主要介绍如何配置系统短信外发。 约束限制 “内置”短信网关不支持推送系统告警。 自定义通用“短信网关”支持推送系统告警。 自定义云短信网关不支持推送系统告警。云短信网关服务失效后,将自动切换为系统“内置”短信网关。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统管理
        系统配置
      • 在函数中如何访问其他服务?
        函数计算提供了一个统一的执行环境,使得您的函数能够无缝地访问和集成各种云服务和其他资源。 无论是天翼云提供的服务如消息服务、对象存储服务、数据库服务,还是您自建的服务,甚至是调用其他函数计算实例,这些操作在函数内部执行时,与您在本地环境中的操作体验是一致的。 要实现这些服务的访问,您需要确保您的函数代码中包含了必要的依赖库。这些依赖库应当与您的函数代码一起被打包,并上传至函数计算平台。一旦部署完成,您的函数就可以在执行时调用这些依赖库,从而与外部服务进行交互。
        来自:
        帮助文档
        函数计算
        常见问题
        访问其他服务
        在函数中如何访问其他服务?
      • API调用
        APP认证的API,第三方怎么调用? 您需要把AppKey和AppSecret提供给第三方,然后第三方通过SDK调用。具体SDK的调用步骤请参见“开发指南 > 使用APP认证调用API”。 是否支持移动应用调用API? API支持被移动应用调用。使用APP认证时,将移动应用的AppKey和AppSecrect替换SDK中的AppKey和AppSecrect进行APP签名。 如何实现WebSocket数据传输? API网关支持WebSocket数据传输,在创建API时,请求协议中的HTTP相当于WebSocket的ws,HTTPS相当于WebSocket的wss。 API调用是否支持长连接 API网关支持长连接,但注意适当使用,避免占用太多资源。 策略后端有多个时,怎么匹配和执行 当您的API配置了多个策略后端,API网关会按顺序进行匹配,匹配到其中一个立即执行API请求转发,不会进行后续的匹配。 当策略后端都没有匹配成功,则按照默认后端执行API请求的转发。 API调用对请求的响应消息体限制 API调用对请求的响应消息体大小没有限制。 如何通过APIG访问公网后端服务? 通过开启公网入口访问,允许外部服务调用API。
        来自:
        帮助文档
        API网关
        常见问题
        API调用
      • 步骤二:创建Kafka实例
        本文主要介绍 步骤二:创建Kafka实例。 前提条件 在创建Kafka实例前,需要保证存在可使用的虚拟私有云。创建方法,请参考《虚拟私有云 用户指南》的“创建虚拟私有云和子网”。 如果您已有虚拟私有云,可重复使用,不需要多次创建。 操作步骤 步骤 1 登录分布式消息服务Kafka控制台,单击页面右上方的“购买Kafka实例”。 步骤 2 选择计费模式。 步骤 3 在“区域”下拉列表中,选择靠近您应用程序的区域,可降低网络延时、提高访问速度。 步骤 4 在“项目”下拉列表中,选择项目。 步骤 5 在“可用区”区域,根据实际情况选择1个或者3个及以上可用区。 步骤 6 设置“实例名称”和“企业项目”。 步骤 7 设置实例信息。 1. 版本:Kafka的版本号,支持1.1.0、2.3.0和2.7,根据实际情况选择,推荐使用2.7。 Kafka实例创建后,版本号不支持修改 。 2. CPU架构:支持“x86计算”,保持默认值即可。 3. 在“代理规格”中,请根据业务需求选择相应的代理规格。在“代理数量”中,选择代理个数。 单个代理最大分区数代理个数实例分区数上限。当所有Topic的总分区数大于实例分区数上限时,创建Topic失败。 4. 在“存储空间”区域,您根据实际需要选择存储Kafka数据的磁盘类型和总磁盘大小。 Kafka实例创建后,磁盘类型不支持修改 。 存储空间包含所有副本存储空间总和,建议根据业务消息体积以及副本数量选择存储空间大小。假设业务存储数据保留天数内磁盘大小为100GB,则磁盘容量最少为100GB副本数 + 预留磁盘大小100GB。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 5. 在“容量阈值策略”区域,设置磁盘使用达到容量阈值后的消息处理策略,容量阈值为95%。 自动删除:可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据存在丢失的风险。 生产受限:无法继续生产消息,但可以继续消费消息。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 图 创建Kafka实例 步骤 8 设置实例网络环境信息。 1. 在“虚拟私有云”下拉列表,选择已经创建好的虚拟私有云和子网。 说明 虚拟私有云和子网在Kafka实例创建完成后,不支持修改。 2. 在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对Kafka实例的访问规则的集合。您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 步骤 9 设置登录Kafka Manager的用户名和密码。创建实例后,Kafka Manager用户名无法修改。 Kafka Manager是开源的Kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 步骤 10 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤 11 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 “公网访问”默认为关闭状态,根据业务需求选择是否开启。开启公网访问后,还需要为每个代理设置对应的IPv4弹性IP地址。 图 设置公网访问开关 2. 设置“Kafka SASLSSL”。 客户端连接Kafka实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 “Kafka SASLSSL”默认为关闭状态,您可以选择是否开启。 Kafka实例创建后,Kafka SASLSSL开关不支持修改 ,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您可以选择是否开启“SASL PLAIN 机制”。未开启“SASL PLAIN 机制”时,使用SCRAMSHA512机制传输数据,开启“SASL PLAIN 机制”后,同时支持SCRAMSHA512机制和PLAIN机制,根据实际情况选择其中任意一种配置连接。Kafka实例创建后,SASL PLAIN机制开关不支持修改。 什么是SCRAMSHA512机制和PLAIN机制? SCRAMSHA512机制:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN机制:一种简单的用户名密码校验机制。 开启Kafka SASLSSL后,您需要设置连接Kafka实例的用户名和密码。 3. 设置“Kafka自动创建Topic”。 “Kafka自动创建Topic”默认为关闭状态,您可以选择是否开启。 开启“Kafka自动创建Topic”表示生产或消费一个未创建的Topic时,系统会自动创建此Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 如果在“配置参数”中修改“log.retention.hours”、“default.replication.factor”或“num.partitions”的参数值,此后自动创建的Topic参数值为修改后的参数值。例如:“num.partitions”修改为“5”,自动创建的Topic参数值如下:分区数为5,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 4. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击“查看预定义标签”,跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个Kafka实例最多支持设置20个不同标签,标签的命名规格,请参考管理实例标签。 5. 设置实例的描述信息。 步骤 12 填写完上述信息后,单击“立即购买”,进入规格确认页面。 步骤 13 确认实例信息无误后,提交请求。 步骤 14 单击“返回Kafka专享版”,查看Kafka实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤二:创建Kafka实例
      • 使用LTS触发器
        本章介绍函数工作流如何使用LTS触发器。 前提条件 已经创建函数。 已经创建LTS FullAccess权限的委托,创建过程请参见配置委托权限。 已经创建日志组,此处以LogGroup1为例,创建过程请参见云日志服务用户指南日志管理日志组。 已经创建,此处以LogTopic1为例,创建过程请参见云日志服务用户指南日志管理日志流。 创建LTS触发器 1、登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、选择待配置的函数,单击进入函数详情页。 3、选择“设置 > 触发器”,单击“创建触发器”,弹出“创建触发器”对话框。 4、设置以下信息。 触发器类型:选择“云日志服务(LTS)”。 日志组:选择已创建的日志组,例如:LogGroup1。 日志流:选择已创建的日志流,例如:LogStream1。 5、单击“确定”,完成LTS触发器的创建。 配置LTS事件触发函数 说明 当原始LTS事件消息超过75KB,会把原始LTS事件消息按照75KB维度拆分为多条消息触发执行函数。 1、返回函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、选择待配置的函数,单击进入函数详情页。 3、在函数详情页,选择函数版本。 4、在“代码”页签下,单击“测试”,弹出“配置测试事件”对话框。 5、填写如表所示测试信息后,单击“保存”。 表 测试信息 参数 说明 配置测试事件 可创建新的测试事件也可编辑已有的测试事件。选择默认值:“创建新的测试事件”。 事件模板 选择"ltseventtemplate"模板,使用系统内置LTS事件模板。 事件名称 事件名称必须以大写或小写字母开头,支持字母(大写或小写),数字和下划线“”(或中划线“”),并以字母或数字结尾,长度为125个字符,例如lts123test。 测试事件 自动加载系统内置lts事件模板,本例不做修改。 6、单击“测试”,可以得到函数运行结果,函数会返回输入LTS数据。
        来自:
        帮助文档
        函数工作流
        用户指南
        配置触发器
        使用LTS触发器
      • 会中聊天
        在会议过程中,参会者可以发送和接收实时消息,支持群聊和一对一私聊。 功能说明 可选择发送消息给会中所有人或指定单个成员。当成员收到聊天消息时,底部工具栏的“聊天”按钮右上角会显示红色气泡提示有未读消息。 聊天窗口仅支持发送文字消息,不支持发送图片或文件。 主持人可管理聊天权限,包括限制部分参会者的聊天发送功能。 操作步骤 1. 进入会议后,点击工具栏中的“聊天”图标,打开右侧聊天窗口。 2. 在聊天窗口顶部的下拉框中选择消息接收对象(所有人或指定成员),也可以在成员列表中选择对应的成员后点击“私聊”。 3. 在输入框输入消息内容,点击发送按钮即可发送消息。 注意事项 请勿在聊天中发送违法或违规内容,保持良好会议秩序。 如果消息发送失败,请检查网络连接并重试。
        来自:
        帮助文档
        AOne会议
        用户指南
        会中聊天
      • 修改消费组
        场景描述 在RocketMQ中,修改订阅组的场景可以有以下几种情况: 增加或减少消费者:当需要增加或减少订阅组中的消费者数量时,可以通过修改订阅组来实现。例如,当消息量增加时,可以增加消费者数量以提高消费能力;当消费者数量过多时,可以减少消费者数量以降低资源消耗。 修改消费策略:订阅组中的消费者可以采用不同的消费策略,如集群模式或广播模式。集群模式下,每个消息只会被订阅组中的一个消费者消费;广播模式下,每个消息会被订阅组中的所有消费者都消费一次。通过修改订阅组,可以更改消费策略以满足不同的业务需求。 调整消费进度:订阅组中的消费者可以通过消费进度来记录已经消费的消息位置。当需要重新消费某些消息或调整消费的起始位置时,可以修改订阅组中各个消费者的消费进度。 修改消费者参数:订阅组中的消费者可以设置一些参数,如消费线程数、消息拉取策略等。通过修改订阅组,可以对消费者的参数进行调整,以优化消费性能和资源利用。 注意 修改订阅组时需要确保订阅组的唯一性,避免与其他订阅组冲突。同时,修改订阅组可能会影响消息的分发和消费进度,需要谨慎操作,避免消息丢失或重复消费的问题。 通过修改订阅组,可以灵活调整消费者数量、消费策略、消费进度和消费者参数,以满足不同的业务需求和优化消费性能。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        消费组管理
        修改消费组
      • 1
      • ...
      • 23
      • 24
      • 25
      • 26
      • 27
      • ...
      • 531
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      模型推理服务

      智算一体机

      人脸检测

      人脸属性识别

      人脸比对

      推荐文档

      绑定和解绑弹性IP

      关于天翼云

      概念

      删除手动备份

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号