云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      专属云分布式消息服务Kafka_相关内容
      • 删除用户
        介绍分布式消息服务Kafka删除用户功能操作内容。 场景描述 Kafka删除用户的场景描述如下: 用户离职或不再需要访问权限:当用户离开组织或不再需要访问Kafka集群时,可以删除其用户账户。这可以确保已离职的用户无法再访问和操作Kafka,提高安全性和合规性。 角色调整或合并:在某些情况下,可能需要对用户角色进行调整或合并。如果某个角色不再需要或与其他角色重复,可以删除相关的用户账户和角色,以简化管理和维护。 用户账户过期或失效:如果用户账户的有效期已过或由于某种原因失效,可以删除该用户账户。这有助于清理无效的用户账户,减少安全风险和资源浪费。 安全审计和合规要求:根据安全审计和合规要求,可能需要删除某些用户账户。例如,当用户账户存在安全风险或违反合规规定时,需要及时删除相关账户以保护系统安全和数据隐私。 数据隔离和资源管理:在多租户环境中,当某个租户不再需要使用Kafka集群时,可以删除其相关的用户账户。这有助于释放资源,提高资源利用率和性能。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“用户管理”后进入应用用户管理页面,点击指定用户其右侧的“删除”按钮。 注意事项 Kafka删除用户时需要注意以下事项: 确认用户身份:在删除用户之前,确保要删除的用户的身份是正确的。验证用户的身份可以防止误删除或删除错误的用户账户。 备份和迁移数据:如果用户账户中存在重要的数据或信息,建议在删除用户之前进行数据备份和迁移。这可以确保数据的安全性和完整性,并防止数据的丢失或泄露。 通知相关人员:在删除用户之前,及时通知相关的管理人员或团队成员。这有助于协调和沟通,确保删除用户的操作得到充分的授权和确认。 关注系统性能:删除用户时,要注意对Kafka集群的性能影响。大规模的用户删除操作可能会对系统造成一定的负载和延迟,因此在合适的时间窗口进行删除操作,以减少对业务的影响。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        删除用户
      • SASL_SSL接入报错
        本节介绍分布式消息服务Kafka使用SASLSSL连接常见问题 1.报错示例:java.security.cert.CertPathValidatorException: Algorithm constraints check failed: SHA256withDS 解决途径:排查jdk是否支持SHA256withDS算法,推荐使用oracle jdk1.8.0201版本jdk 2.报错示例:Topic authorization failed for topics 解决途径:排查topic是否授权,如果没有则授予对应权限 3. 报错示例:Authentication failed during authentication due to invalid credentials with SASL mechanism SCRAMSHA512 解决途径:排查连接kafka的用户密码是否正确 4. 报错示例:java.security.cert.CertificateException: No subject alternative names present 解决途径:配置文件需要配置 ssl.endpoint.identification.algorithm 5. 报错示例:Keystore was tampered with, or password was incorrect 解决途径:排查 ssl client密码是否错误或者和证书不匹配,可以从实例详情>接入点信息>查看所有IP和端口信息,界面下载对应证书 6.接入配置示例
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
        SASL_SSL接入报错
      • 流控管理
        操作场景 分布式消息服务 Kafka 版支持按主题或用户/客户端来配置限流策略,避免因资源消耗过高而影响全量业务。 前提条件 流控管理仅支持集群版实例。 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在实例列表页的操作列,目标实例行点击“管理”按钮。 4. 点击“智能运维”、“流控管理”菜单进入流控管理页面。 5. 如需配置主题流控 ,在流控配置页卡的下拉框选择“Topic”选项并点击“创建流控”按钮。 6. 在弹窗填入主题名、生产上限速率、消费上限速率,点击“确定”按钮。 Topic:填入需要限流的主题名 速率范围:1MB/s — 1024MB/s 7. 如需配置用户/客户端流控 ,在流控配置页卡的下拉框选择“User/Client”选项并点击“创建流控”按钮。 8. 在弹窗填入用户名、客户端ID、生产上限速率、消费上限速率,点击“确定”按钮。 用户名:填入需要限流的用户名,与客户端ID不能同时为空 客户端ID:填入需要限流的客户端ID,与用户名不能同时为空 速率范围:1MB/s — 1024MB/s
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        智能运维
        流控管理
      • 创建数据订阅任务
        本文为您介绍创建数据订阅任务的操作场景、前提条件和操作步骤。 操作场景 场景一:数据实时分析 使用云监控数据订阅功能,将业务进行异步解耦,在不影响源库业务的情况下,实时同步监控数据(指标、事件)或告警数据到客户自有分析系统中,帮助企业用户进行实时数据分析。 场景二:数据归档存储 使用云监控数据订阅功能,您可将资源监控或告警数据的增量更新数据,实时地推送到归档数据库或数据仓库。 说明 数据订阅功能当前为受限开放,如有需求可以联系客户经理为您开放此功能。 资源池下单个用户最多可创建10个数据订阅任务。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 注意 数据订阅功能数据类型支持指标数据、事件数据,订阅方式支持分布式消息服务及API方式。 指标数据订阅支持分布式消息服务(kafka)及remotewriteapi方式。 事件数据订阅支持分布式消息服务(kafka)及apipush方式。(事件订阅入口为:云监控服务>事件监控>事件订阅) 创建订阅任务需提前创建订阅渠道。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控”,进入监控概览页面。 4. 单击左侧“数据订阅”菜单,进入数据订阅任务列表。 5. 单击“创建订阅任务”功能,进入数据订阅任务创建二级页面。 6. 创建订阅任务参数配置如下: 模块 参数 参数说明 配置示例 备注 选择订阅对象 服务维度 选择需要订阅数据的服务维度信息,支持多选 云主机云主机 选择订阅对象 监控对象类型 具体实例 选择订阅对象 选择对象 选择资源实例对象 具体实例 定义订阅方式 订阅通道 选择公网/内网 分布式消息服务 定义订阅方式 发送渠道 Kafka Kafka 定义订阅方式 订阅失败缓存时间 输入用户客户端地址 基础信息 订阅任务名称 填写自定义订阅任务名称 testtask 基础信息 描述 填写订阅任务描述信息 说明 关于告警数据订阅全部资源的场景,涉及两个周期: 订阅服务subscription同步订阅配置的周期,预计上线配置2分钟。 数据订阅配置全部资源,也需要周期同步全量的实例资源,预计线上配置3分钟。 因此,考虑极限情况,告警订阅服务在周期1 + 周期2之后产生的告警,订阅服务才能匹配消费到。
        来自:
        帮助文档
        云监控服务
        用户指南
        数据订阅
        创建数据订阅任务
      • 事件目标概述
        事件目标是事件规则的一部分,负责消费经事件规则过滤与转换后的事件。 事件目标 事件总线EventBridge支持以下事件目标: 函数计算 分布式消息服务RocketMQ 分布式消息服务RabbitMQ 分布式消息服务Kafka HTTP、HTTPS地址
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        事件目标概述
      • 运行Kafka作业
        本章节主要介绍翼MapReduce运行kafka作业。 用户可将自己开发的程序提交到翼MR中,执行程序并获取结果。本章节教您在翼MR集群后台如何提交一个新的kafka作业。 通过后台提交作业 1. 登录翼MR管理控制台。 2. 选择“我的集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3. 在“节点管理”页选中单击Master节点,选择要进入的Master节点。 4. 单击该节点右侧的“远程连接”。 5. 根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 6. 创建kafka的topic。 plaintext /usr/local/kafka/bin/kafkatopics.sh zookeeper :2181/kafka topic create 7. 当前集群默认开启Kerberos认证,执行以下命令添加认证信息。 plaintext export KAFKAOPTS"Djava.security.krb5.conf/etc/krb5.conf Djava.security.auth.login.config/usr/local/kafka/config/kafkajaas.conf" 8. 向topic中写入消息。 plaintext /usr/local/kafka/bin/kafkaconsoleproducer.sh brokerlist :9092 topic producer.config /usr/local/kafka/config/producer.properties 9. 消费topic中的消息。 plaintext /usr/local/kafka/bin/kafkaconsoleconsumer.sh bootstrapserver :9092 topic consumer.config /usr/local/kafka/config/consumer.properties frombeginning maxmessages 5 注意 frombeginning:只能消费未被消费的历史数据,已消费数据不会出现。 maxmessages:最多消费多少条数据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Kafka作业
      • 删除流控
        本文主要介绍删除流控。 操作场景 本章节指导您在无需流控时,删除流控。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在待删除的流控所在行,单击“删除”,弹出“删除流控”对话框。 步骤 7 单击“是”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示成功删除流控。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        删除流控
      • 通过认证生产与消费加密主题的消息
        分布式消息Kafka使用SASL 认证协议来实现身份验证的能力,加密的主题需要经过身份校验才能正常地消费和生产消息。 1. 创建用户并配置用户权限 进入应用用户管理界面,新建用户,并给用户添加主题和消费组的权限,并且下载密钥。详细操作可以查看用户指南创建应用用户。 2. 运行生产者客户端 如下是Java客户端代码示例,注意修改内容(用户、密码、接入地址、主题名称)。 3. 运行消费者客户端 如下是Java客户端代码示例,注意修改内容(用户、密码、接入地址、消费组名称、主题名称)。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        通过认证生产与消费加密主题的消息
      • API使用说明
        天翼云OpenAPI门户提供了产品的API 文档、API调试、SDK中心等。 关于用户如何使用分布式消息服务Kafka产品API的详细介绍,请参见使用API(默认Ⅱ类资源池接口)。您可以在OpenAPI门户可以了解到具体的调用前必知、API概览、如何调用API以及具体的API的接口详细说明。 说明 Ⅱ类资源池版本:适用于 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3、芜湖4、乌鲁木齐7 资源池,详情请参照 Ⅰ类资源池版本:适用于 芜湖2、上海7、贵州3、昆明2、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、北京5 资源池,详情请参照
        来自:
        帮助文档
        分布式消息服务Kafka
        API参考
        API使用说明
      • Kafka Manager问题
        本文主要介绍 Kafka Manager问题。 登录Kafka Manager的帐号是否可以设置为只读帐号? 不支持设置为只读帐号。 登录到Kafka Manager页面,为什么获取不到节点信息? 问题现象: 正常登录Kafka Manager页面,但是页面无法显示节点信息,如下所示: 问题原因: 这是Kafka开源问题,需要联系客服,重启Kafka Manager。 Yikes! Insufficient partition balance when creating topic : projectmanprojectenterpriseproject Try again. 问题现象: 在Kafka Manager中无法创建topic,报错:Yikes! Insufficient partition balance when creating topic : projectmanprojectenterpriseproject Try again. 问题原因: Topic分区超过限制,不能继续创建Topic。 处理方法: 建议扩大实例规格,实例规格增加,分区数也会相应增加。 Kafka Manager能否查询到消息的正文? Kafka Manager无法查询到消息的正文。 Kafka Manager WebUI的端口能否修改? Kafka Manager WebUI的端口不支持修改。 在Kafka Manager上支持修改Topic的哪些属性? 在Kafka Manager上,支持修改如下的Topic属性:max.message.bytes、segment.index.bytes、segment.jitter.ms、min.cleanable.dirty.ratio、retention.bytes、file.delete.delay.ms、compression.type、flush.ms、cleanup.policy、unclean.leader.election.enable、flush.messages、retention.ms、min.insync.replicas、delete.retention.ms、preallocate、index.interval.bytes、segment.bytes、segment.ms。 具体修改方法如下: 1. 登录Kafka Manager。 2. 单击“kafkacluster”,进入“Summary”界面。 3. 单击“Topic > List”,进入“Topics”界面。 4. 单击需要修改属性的Topic名称,进入Topic详情界面。 5. 单击“Update Config”,修改Topic属性。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        Kafka Manager问题
      • Kafka客户端参数配置建议
        本文主要 Kafka客户端参数配置建议。 Kafka客户端的配置参数很多,以下提供producer和consumer几个常用参数配置。其他参数配置,请参考Kafka配置。 表 Producer参数 参数 默认值 推荐值 说明 acks 1 高可靠:all或者1高吞吐:1 收到Server端确认信号个数,表示producer需要收到多少个这样的确认信号,算消息发送成功。 acks参数代表了数据备份的可用性。常用选项:acks0:表示producer不需要等待任何确认收到的信息,副本将立即加到socket buffer并认为已经发送。没有任何保障可以保证此种情况下server已经成功接收数据,同时重试配置不会发生作用(因为客户端不知道是否失败)回馈的offset会总是设置为1。 acks1:这意味着至少要等待leader已经成功将数据写入本地log,但是并没有等待所有follower是否成功写入。如果follower没有成功备份数据,而此时leader又无法提供服务,则消息会丢失。 acksall或者1:这意味着leader需要等待ISR中所有备份都成功写入日志。只要任何一个备份存活,数据都不会丢失。min.insync.replicas指定必须确认写入才能被认为成功的副本的最小数量。 retries 0 结合实际业务调整 客户端发送消息的重试次数。值大于0时,这些数据发送失败后,客户端会重新发送。 注意,这些重试与客户端接收到发送错误时的重试没有什么不同。允许重试将潜在的改变数据的顺序,如果这两个消息记录都是发送到同一个partition,则第一个消息失败第二个发送成功,则第二条消息会比第一条消息出现要早。针对网络闪断场景,生产者建议配置重试能力,推荐重试次数retries3,重试间隔retry.backoff.ms1000。 request.timeout.ms 30000 结合实际业务调整 设置一个请求最大等待时间,超过这个时间则会抛Timeout异常。超时时间如果设置大一些,如127000(127秒),高并发的场景中,能减少发送失败的情况。 block.on.buffer.full TRUE TRUE TRUE表示当我们内存用尽时,停止接收新消息记录或者抛出错误。默认情况下,这个设置为TRUE。 然而某些阻塞可能不值得期待,因此立即抛出错误更好。如果设置为false,则producer抛出一个异常错误:BufferExhaustedException batch.size 16384 262144 默认的批量处理消息字节数上限。producer将试图批处理消息记录,以减少请求次数。 这将改善client与server之间的性能。不会试图处理大于这个字节数的消息字节数。 发送到brokers的请求将包含多个批量处理,其中会包含对每个partition的一个请求。较小的批量处理数值比较少用,并且可能降低吞吐量(0则会仅用批量处理)。 较大的批量处理数值将会浪费更多内存空间,这样就需要分配特定批量处理数值的内存大小。 buffer.memory 33554432 67108864 producer可以用来缓存数据的内存大小。如果数据产生速度大于向broker发送的速度,producer会阻塞或者抛出异常,以“block.on.buffer.full”来表明。 这项设置将和producer能够使用的总内存相关,但并不是一个硬性的限制,因为不是producer使用的所有内存都是用于缓存。一些额外的内存会用于压缩(如果引入压缩机制),同样还有一些用于维护请求。 表 Consumer参数 参数 默认值 推荐值 说明 :::: auto.commit.enable TRUE FALSE 如果为真,consumer所fetch的消息的offset将会自动的同步到zookeeper。这项提交的offset将在进程无法提供服务时,由新的consumer使用。约束:设置为false后,需要先成功消费再提交,这样可以避免消息丢失。 auto.offset.reset latest earliest 没有初始化offset或者offset被删除时,可以设置以下值: earliest:自动复位offset为最早 latest:自动复位offset为最新 none:如果没有发现offset则向消费者抛出异常 anything else:向消费者抛出异常。 说明 如果将此配置设置为latest,新增分区时,生产者可能会在消费者重置初始偏移量之前开始向新增加的分区发送消息,从而导致部分消息丢失。 connections.max.idle.ms 600000 30000 空连接的超时时间,设置为30000可以在网络异常场景下减少请求卡顿的时间。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka客户端参数配置建议
      • 重置Kafka Manager密码
        本文主要介绍 重置Kafka Manager密码。 操作场景 如果您忘记了创建实例时设置的Kafka Manager密码,通过重置Manager密码功能,重新设置一个新的密码,可使用新密码登录Kafka Manager。 前提条件 已创建Kafka实例,且实例处于“运行中”。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重置Kafka Manager密码。 在待重置Manager密码的Kafka实例所在行,单击“更多 > 重置Manager密码”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 重置Manager密码”。 单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,在“连接信息 > Manager用户名”后,单击“重置Manager密码”。 步骤 5 输入“新密码”和“确认密码”,单击“确定”,完成密码重置。 重置Manager密码成功,界面提示重置实例的密码成功。 重置Manager密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重置Kafka Manager密码
      • 调度作业
        参数 说明 触发事件类型 选择触发作业运行的事件类型。 “KAFKA” “KAFKA”触发事件类型的参数 连接名称 选择数据连接,需先在“管理中心”创建kafka数据连接。 Topic 选择需要发往kafka的消息Topic。 事件处理并发数 选择作业并行处理的数量,最大并发数为128。 事件检测间隔 配置时间间隔,检测通道下是否有新的消息。时间间隔单位可以配置为秒或分钟。 读取策略 选择数据的读取位置: 从上次位置读取:首次启动时,从最新的位置读取数据。后续启动时,则从前一次记录的位置读取数据。 从最新位置读取:每次启动都会从最新的位置读取数据。 失败策略 选择调度失败后的策略: 挂起 忽略失败,读取下一个
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        作业开发
        调度作业
      • 为什么发送给Topic的消息在分区中分布不均衡?
        本节介绍Kafka 发送给Topic的消息在分区中分布不均衡原因 问题现象 发送消息到某个Topic后,该Topic下部分分区消息比较多,部分分区消息少,甚至没有。 可能原因 发送消息时指定了分区,导致未指定的分区没有消息。 发送消息时指定了消息Key,按照对应的Key发送消息至对应的分区,导致分区消息不均衡。 通过代码重新实现了分区分配策略,但策略逻辑有问题,导致分区消息不均衡。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        为什么发送给Topic的消息在分区中分布不均衡?
      • 消费位点
        每个 Topic 会有多个分区,每个分区会统计当前消息的总条数,这个称为最大位点 MaxOffset。Kafka Consumer 会按顺序依次消费分区内的每条消息,记录已经消费了的消息条数,称为ConsumerOffset。 剩余的未消费的条数(也称为消息堆积量) MaxOffset ConsumerOffset
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消费位点
      • 删除SASL_SSL用户
        本章节介绍如何删除SASLSSL用户。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 通过以下任意一种方法,删除SASLSSL用户。 在“用户管理”页签,在待删除的SASLSSL用户所在行,单击“删除”。 在“用户管理”页签,勾选SASLSSL用户名左侧的方框,可选一个或多个,单击信息栏左上侧的“删除”。 说明 创建Kafka实例时设置的SASLSSL用户无法删除。 步骤 6 在弹出的“删除用户”对话框中,单击“是”,完成SASLSSL用户的删除。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        SASL_SSL用户管理
        删除SASL_SSL用户
      • 创建消费组
        本章节介绍如何在控制台创建消费组。 如果在“配置参数”中开启了“auto.create.groups.enable”,则该操作为可选。“auto.create.groups.enable”表示在消费者进入未创建的消费组时,会自动创建此消费组。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 步骤 6 单击“创建消费组”,弹出“创建消费组”对话框。 步骤 7 输入消费组名称,单击“确定”。 在消费组列表页面,查看新创建的消费组。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        创建消费组
      • 事件源概述
        事件源是事件的来源,负责将生产的事件发布到事件总线。 事件总线EventBridge支持以下事件源: 天翼云官方事件源 作为事件源接入时,只要开通相应的天翼云服务,就可以自动接入事件总线EventBridge。通过配置预定义的事件源与事件规则,实现从事件源发布事件到云服务专用总线,经过事件模式过滤后把事件路由到事件目标。 自定义事件源 作为事件源接入时,您可以配置自定义应用事件源,使用SDK接入事件总线EventBridge。通过创建自定义总线、配置事件规则,把自定义应用产生的事件发布到自定义总线,经过事件模式过滤后把事件路由到事件目标。 作为事件源接入时,您可以配置消息类事件提供方,把事件主动拉取到事件总线EventBridge。例如,当您配置事件提供方为分布式消息服务Kafka时,事件总线EventBridge会把分布式消息服务Kafka对应资源产生的消息主动拉取到自定义总线中,经过事件模式过滤后把事件路由到事件目标。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        事件源概述
      • 术语解释
        HDFS HDFS(Hadoop Distributed File System)是Hadoop生态系统的一个重要组成部分,是Hadoop中的的存储组件。它是一个分布式文件系统,提供对应用程序数据的高吞吐量访问。 Hive Hive数据仓库软件通过SQL实现对分布式存储中的大型数据集的读写和管理。Hive提供命令行工具和JDBC驱动程序连接用户。Hive对SQL语句编译和解析,生成相应的MapReduce任务对数据进行操作。 Kafka Apache Kafka是一个优秀的分布式事件流平台,被广泛用于高性能数据管道、流分析、数据集成和任务关键型应用程序中。 Kerberos Hadoop使用Kerberos作为用户和服务的强身份验证和身份传播的基础。Kerberos是一种计算机网络认证协议,它允许某实体在非安全网络环境下通信,向另一个实体以一种安全的方式证明自己的身份。 Kerberos是第三方认证机制,其中用户和服务依赖于第三方(Kerberos服务器)来对彼此进行身份验证。 Kibana Kibana是一个开源的数据分析和可视化平台,它被设计用于与Elasticsearch协同工作。您可以使用Kibana对Elasticsearch索引中的数据进行搜索、查看和交互操作。 Kyuubi Kyuubi是一个提供JDBC/ODBC SQL查询能力的分布式SQL引擎管理者,主要是为Spark Thrift Server提供多租户以及HA能力,同时为其他引擎(例如Flink或Trino等)提供SQL等查询服务。 OpenLDAP OpenLDAP是轻型目录访问协议(Lightweight Directory Access Protocol,LDAP),通过IP协议提供访问控制和维护分布式信息的目录信息。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        术语解释
      • 导出Topic
        本文主要介绍 导出Topic。 本章节指导您在控制台导出Topic,支持批量导出。 前提条件 已创建Topic。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 在页面右上角单击,导出Topic列表到本地。 Topic列表中包含如下信息:Topic名称、分区数、副本数、老化时间、是否同步复制或同步落盘。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        导出Topic
      • 名词解释
        本文为您介绍分布式消息服务MQTT的相关术语解释。 实例(Instance) 创建购买消息队列 MQTT 服务的实体单元,包含MQTT Broke和kafka集群节点。 MQTT Broker 消息队列 MQTT 提供的 MQTT 协议交互的服务端节点,用于完成与 MQTT 客户端消息收发和数据存储至消息队列。 MQTT 客户端 用于和 MQTT 服务器交互的移动端节点。 父级 Topic(Parent Topic) MQTT 协议基于 Pub/Sub 模型,因此任何消息都属于一个 Topic。根据 MQTT 协议,Topic 存在多级,定义第一级 Topic 为父级 Topic,需先在控制台创建该父级 Topic。 子级 Topic(Subtopic) MQTT 的二级 Topic,甚至三级 Topic 都是父级 Topic 下的子类。使用时,直接在代码里设置,无需创建。需要注意的是微消息队列 MQTT 限制父级 Topic 和子级 Topic 的总长度为 64 个字符,如果超出长度限制将会导致客户端异常。 Client ID 微消息队列 MQTT 的 Client ID 是每个客户端的唯一标识,要求全局唯一,使用相同的 Client ID 连接消息队列 MQTT服务会被拒绝。 消息队列Kafka MQTT Broker主要承担移动端连接接入、连接管理、数据转发等工作。后端数据持久化和消息存储至kafka消息队列;租户后端应用系统可通过kafka分析、处理数据并下发指令。 终端连接地址 即MQTT Broker端接入地址,设备端使用。 服务端连接地址 即kakfa集群连接地址,云端应用服务使用。 订阅关系 终端设备每订阅一个主题即一个订阅关系。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        名词解释
      • 按需转包周期
        本文主要介绍 按需转包周期。 选择按需付费的用户,可以选择“转包周期”,变更实例计费模式为包年/包月。 说明 实例从按需变为包周期计费时,不影响应用,只是计费方式变了。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,实现按需实例转包周期。 勾选Kafka实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“转包周期”,弹出“转包周期”对话框,单击“是”,跳转到“按需转包年/包月”页面。 在待转包周期的Kafka实例所在行,单击“更多 > 转包周期”,跳转到“按需转包年/包月”页面。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 转包周期”,跳转到“按需转包年/包月”页面。 步骤 5 选择续费时长,然后单击“去支付”,根据界面提示信息,支付费用,完成实例转包周期操作。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        按需转包周期
      • 自定义事件源参数
        本文介绍事件源中的请求参数。 请求参数 参数 类型 是否必选 示例值 描述 eventBusName String 是 test 事件总线的名称。 eventSourceName String 是 source1 事件源的名称。 desc String 否 test 事件源描述。 type String 是 simple 事件源类型,更多信息请参考下文关于事件源的格式。 eventSourceParams Arrays of Object 是 事件源参数,详见表 EventSourceParams,更多信息请参考下文关于事件源的格式。 表 EventSourceParams 参数 是否必填 参数类型 说明 resourceKey 是 String 事件源参数名。 value 是 String 事件源参数值。 form 是 String 事件源参数格式。 template 否 String 事件源参数模板样式。 分布式消息服务Kafka 当事件源的事件提供方选择分布式消息服务Kafka时,请求参数中的type为kafka,eventSourceParams 中的resourceKey 字段含义如下表所示: resourceKey 是否必传 form value template instanceId 是 CONSTANT 分布式消息服务Kafka实例ID。 无 topic 是 CONSTANT 主题名称。 无 groupName 是 CONSTANT 消费组名。 无 initialOffset 是 CONSTANT 消息位点。 最新位点:latest 最早位点:earliest 无 dataFormat 否 CONSTANT 数据格式,不填时默认为JSON编码格式: JSON格式编码:JSON 文本格式编码:Text 二进制格式编码:Binary 无 请求示例如下: plaintext { "eventSourceName": "source", "eventBusName": "test", "desc": "dddesc", "type": "kafka", "eventSourceParams": [ { "resourceKey": "instanceId", "value": "b16b04cf0776xxxxxfa31a001a5c48b6", "form": "constant" }, { "resourceKey": "topic", "value": "ebsource", "form": "constant" }, { "resourceKey": "groupName", "value": "ebgroup", "form": "constant" }, { "resourceKey": "initialOffset", "value": "latest", "form": "constant" }, { "resourceKey": "dataFormat", "value": "JSON", "form": "CONSTANT" } ] }
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源参数
      • 购买类
        为什么可用区不能选择2个? 所有不同规格的Kafka集群实例都是3个Zookeeper节点,并且是通过Zookeeper集群进行管理配置的,Kafka依赖Zookeeper,如果Zookeeper集群出现问题,Kafka将无法正常运行。 一个Zookeeper集群正常运行,至少需要2个Zookeeper节点正常运行。 假设允许可用区选择2个,可用区1有1个Zookeeper节点,可用区2有2个Zookeeper节点。如果可用区1故障,则集群实例能正常使用;如果可用区2故障,则集群不能正常使用。集群可用的场景只有50%,所以不支持选择2个可用区 如何选择Kafka实例的存储空间? 存储空间,主要是指用于存储消息所需要的空间,选择时包括选择磁盘规格和大小,磁盘规格,当前支持“超高IO”和“高IO”两种类型。 假设业务存储数据保留天数内磁盘大小为100GB,则磁盘容量最少为100GB副本数 + 预留磁盘大小100GB。Kafka集群中,每个Kafka节点会使用33G的磁盘作为日志和Zookeeper数据的存储,因而实际可用存储会小于购买存储。 其中,副本数在创建Topic时可以选择,默认为3副本存储。 Kafka实例的超高IO和高IO如何选择? 高IO:平均时延13ms,最大带宽150MB/s(读+写)。 超高IO:平均时延1ms,最大带宽350MB/s(读+写)。 建议选择超高IO,云硬盘服务端压力大场景,都不能达到最大带宽,但是超高IO可达到的带宽比高IO高很多。 如何选择Kafka实例存储容量阈值策略? 当前支持以下两种策略: 生产受限策略 该策略场景下一旦磁盘使用达到容量阈值95%,会导致后续生产失败,但保留了当前磁盘中的数据,直至数据自然老化(Kafka原有的老化机制,数据默认保留3天)。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 自动删除策略 该策略场景下磁盘使用到达容量阈值之后,以一个segment文件为单位(1GB),会自动删除最早的segment文件,保证生产业务能继续正常运行。该场景优先保障业务不中断,数据可能会丢失。 以上两种策略的需要基于业务对数据和业务的可靠性来进行选择,只能作为极端场景下的一个种处理方式。建议业务购买时保证有充足的磁盘容量,避免磁盘的使用达到容量阈值。 Kafka实例的Topic数量是否有限制? 在Kafka使用过程中,Topic数量本身无限制,但Topic的分区数之和有上限,当达到上限后,会导致用户无法继续创建Topic。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        常见问题
        购买类
      • 如何设置消息堆积数超过阈值时,发送告警短信/邮件
        本文主要介绍如何设置消息堆积数超过阈值时,发送告警短信/邮件。 操作场景 如果您想要在消费组的消息堆积数超过阈值时,通过短信/邮件及时收到通知信息,可以参考本章节设置告警通知。 您还可以参考分布式消息服务Kafka的支持的监控指标,设置告警通知。 前提条件 已购买Kafka实例、创建Topic,并且已成功消费消息。 操作步骤 1、 登录分布式消息服务Kafka控制台,单击待创建告警通知的实例名称,进入实例详情页。 2、 在左侧导航栏,选择“监控”,进入监控页面。 3、 在“消费组”页签,设置需要创建告警通知的消费组。 图 选择需要创建告警通知的消费组 消费组:选择需要创建告警通知的消费组。 主题:选择“全部Topic”。 4、 选中“消息堆积数(消费组可消费消息数)”图表,单击,创建告警规则。 图 消息堆积数图表 5、 在“创建告警规则”界面,设置告警名称。 图 设置告警名称 名称:您自定义的告警名称,用于识别不同的告警。 描述:告警规则描述,可以不填。 6、 在“创建告警规则”界面,设置告警策略。 图 设置告警策略 触发规则:选择“自定义创建”。 告警策略:触发告警规则的告警策略,是否触发告警取决于连续周期的数据是否达到阈值。 告警级别:根据实际情况选择告警等级。 7、 在“创建告警规则”界面,设置告警通知对象。 图 设置告警通知对象 发送通知:选择开启。 通知方式:选择“主题订阅”。 通知对象:选择云帐号联系人或已创建的告警通知主题,告警通知主题的订阅信息中包含需要接收告警信息的手机号/邮箱地址。 图 创建告警通知主题 图 添加订阅 生效时间:该告警规则仅在生效时间内发送通知消息。 触发条件:触发告警通知的条件。 8、 在“创建告警规则”界面,设置企业项目和标签。 图 设置企业项目和标签 归属企业项目:告警规则所属的企业项目。只有拥有该企业项目权限的用户才可以查看和管理该告警规则。 标签:标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 9、 单击“立即创建”,完成告警规则的设置。 告警规则创建完成后,在云监控服务的“告警 > 告警规则”界面,查看新创建的告警规则。 图 查看新创建的告警规则
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        如何设置消息堆积数超过阈值时,发送告警短信/邮件
      • 修改同步复制和同步落盘
        本文主要介绍修改同步复制和同步落盘。 同步复制指后端收到生产消息请求并复制给所有副本后,才返回客户端。 同步落盘指生产的每条消息都会立即写入磁盘。 开启:生产的每条消息都会立即写入磁盘,可靠性更高。 关闭:生产的消息存在内存中,不会立即写入磁盘。 本章节指导您在控制台修改同步复制和同步落盘。 说明 修改同步复制/同步落盘,不会重启实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改同步复制和同步落盘。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改同步复制和同步落盘的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,开启或关闭同步复制和同步落盘,单击“确定”。 开启:单击。 关闭:单击。 说明 当副本数为1时,不能开启同步复制功能。 开启同步复制后,需要在客户端配置acksall或者1,否则无效。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改同步复制和同步落盘
      • 关闭Smart Connect
        本节介绍如何关闭Smart Connect。 如果不再使用Smart Connect相关功能,您可以关闭Smart Connect,释放资源。 关闭Smart Connect不会影响业务。 约束与限制 关闭Smart Connect后,实例会停止收取用于Smart Connect的代理费用,并自动删除用于Smart Connect的代理。 关闭Smart Connect后,再重新开启Smart Connect,已删除的Smart Connect任务无法找回,需要重新创建。 前提条件 已创建Kafka实例,且实例状态为“运行中”。 关闭Smart Connect前,请先删除所有的Smart Connect任务,否则无法关闭Smart Connect。此操作是为了防止关闭Smart Connect导致正在运行的Smart Connect任务丢失。 关闭Smart Connect 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、通过以下任意一种方法,关闭Smart Connect。 在待关闭Smart Connect的Kafka实例所在行,单击“更多 > 关闭Smart Connect”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 关闭Smart Connect”。 5、单击,将Smart Connect设置为关闭,单击“下一步”。 6、确认“Smart Connect”为关闭状态,单击“提交”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        关闭Smart Connect
      • 天翼云官方事件源接入流程
        步骤二:产生对象存储事件 1. 登录对象存储管理控制台。 2. 单击前提条件中您已打开的桶名,点击文件管理,点击上传文件,等待文件上传完成,如图1。 图1 在对象存储管理控制台上传文件 步骤三:查看官方事件源事件示例 1. 登陆事件总线EventBridge管理控制台。 2. 点击default 总线,进入云服务专用事件总线详情页,单击左侧事件源按钮。 3. 单击名为ctyun.zos的事件源,查看事件示例,如图2。 图2 查看对象存储官方事件源的事件列表 步骤四:结果验证 1. 登录分布式消息服务Kafka管理控制台。 2. 在左侧导航栏,单击实例列表,选择目标实例。 3. 在左侧导航栏点击消息查询页面,点击按位点查询,查看事件内容与步骤三中查看的示例是否相符。 图3 查看分布式消息服务Kafka管理控制台中的消息详情
        来自:
        帮助文档
        事件总线
        快速入门
        天翼云官方事件源接入流程
      • 编辑流控
        本文主要介绍编辑流控。 操作场景 本章节指导您在流控创建成功后,修改生产上限速率或者消费上限速率。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“流控管理 > 流控列表”,进入流控列表页面。 步骤 6 在待修改的流控所在行,单击“编辑”,弹出“编辑流控”对话框。 步骤 7 修改生产上限速率或者消费上限速率,单击“确定”,跳转到“后台任务管理”页面,当流控任务的“状态”为“成功”时,表示流控修改成功。 进入“流控管理 > 流控列表”页面,查看修改后流控的生产上限速率或者消费上限速率。 说明 “生产上限速率”和“消费上限速率”不可同时为空。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        流控管理
        编辑流控
      • 使用Kafka触发器
        本章介绍函数工作流如何使用Kafka触发器。 使用Kafka触发器后,FunctionGraph会定期轮询Kafka实例指定Topic下的新消息,FunctionGraph将轮询得到的消息作为参数传递来调用函数。 前提条件 进行操作之前,需要做好以下准备。 已经创建函数。 创建Kafka触发器,必须开启函数工作流VPC访问,请参见配置网络。 已经创建Kafka实例。 在Kafka实例下创建主题。 创建Kafka触发器 1、登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、选择待配置的函数,单击进入函数详情页。 3、选择“设置 > 触发器”,单击“创建触发器”,弹出“创建触发器”对话框。 4、设置以下信息。 触发器类型:选择“分布式消息服务(Kafka)”。 实例:选择已创建专享版Kafka实例。 主题:选择专享版Kafka实例的Topic。 批处理大小:每次从Topic消费的消息数量。 用户名:Kafka实例开启SSL时需要填写。连接Kafka专享版实例的用户名。 密码:Kafka实例开启SSL时需要填写。连接Kafka专享版实例的密码。 5、单击“确定”,完成kafka触发器的创建。 说明 开启函数流VPC访问后,需要在Kafka服务安全组配置对应子网的权限。如何开启VPC访问请参见 Kafka触发器当前支持选择多个Topic主题,从而避免Topic过多导致创建的触发器数量被限制。 配置Kafka事件触发函数。 1、返回函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、选择待配置的函数,单击进入函数详情页。 3、在函数详情页,选择函数版本。 4、在“代码”页签下,单击“测试”,弹出“配置测试事件”对话框。 5、填写如下表示测试信息后,单击“保存”。 测试信息 参数 说明 配置测试事件 可创建新的测试事件也可编辑已有的测试事件。选择默认值:“创建新的测试事件”。 事件模板 选择"kafkaeventtemplate"模板,使用系统内置Kafka事件模板。 事件名称 事件名称必须以大写或小写字母开头,支持字母(大写或小写),数字和下划线“”(或中划线“”),并以字母或数字结尾,长度为125个字符,例如kafka123test。 测试事件 自动加载系统内置kafka事件模板,本例不做修改。 6、单击“测试”,可以得到函数运行结果,函数会返回输入kafka消息数据。
        来自:
        帮助文档
        函数工作流
        用户指南
        配置触发器
        使用Kafka触发器
      • 消息广播
        Kafka 自身没有消息广播的语义,可以通过创建不同的 Consumer Group 来模拟实现。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消息广播
      • 修改Topic老化时间
        本文主要介绍 修改Topic老化时间。 老化时间即消息的最长保留时间,消费者必须在此时间结束前消费消息,否则消息将被删除。删除的消息,无法被消费。 创建Topic成功之后,您可以根据业务需要修改Topic的老化时间。修改老化时间,不会影响业务。Topic老化时间,默认为72小时。 修改老化时间可以通过以下方式实现: 在“Topic管理”中,修改老化时间。 在“配置参数”中,修改“log.retention.hours”参数值,具体步骤请参考修改配置参数。 说明 如果Topic已经设置了老化时间,此时“配置参数”中的log.retention.hours值将不对此Topic生效。仅在Topic中未设置老化时间时,“配置参数”中的log.retention.hours值才会对此Topic生效。例如:Topic01设置的老化时间为60小时,“配置参数”中的log.retention.hours值为72小时,此时Topic01实际的老化时间为60小时。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改Topic老化时间。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改老化时间的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,输入老化时间,单击“确定”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic老化时间
      • 1
      • ...
      • 6
      • 7
      • 8
      • 9
      • 10
      • ...
      • 644
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      轻量型云主机

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      模型推理服务

      推荐文档

      接口方法概述

      订单确认

      产品优势

      查看云间高速

      EIP释放和批量释放

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号