活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      分布式消息服务Kafka

      分布式消息服务Kafka

        • 产品动态
        • 产品简介
        • 产品定义
        • 产品优势
        • 应用场景
        • 产品规格
        • 与RabbitMQ、RocketMQ的差异
        • 与开源Kafka的差异
        • 约束与限制
        • 与其他云服务的关系
        • Kafka相关概念
        • 权限管理
        • 计费说明
        • 计费项
        • 计费模式
        • 产品价格
        • 快速入门
        • 入门指引
        • 步骤一:准备环境
        • 步骤二:创建Kafka实例
        • (可选)步骤三:创建Topic
        • 步骤四:连接实例生产消费消息
        • 不使用SASL证书连接
        • 使用SASL证书连接
        • 步骤五:配置必须的监控告警
        • 用户指南
        • 权限管理
        • 创建用户并授权使用DMS for Kafka
        • DMS for Kafka自定义策略
        • DMS for Kafka资源
        • DMS for Kafka请求条件
        • 准备实例依赖资源
        • 购买实例
        • 连接Kafka实例
        • 配置Kafka实例的公网访问
        • 连接未开启SASL的Kafka实例
        • 连接已开启SASL的Kafka实例
        • 连接和查看Kafka Manager
        • 使用DNAT访问Kafka实例
        • 制作并替换证书
        • 实例管理
        • 变更实例规格
        • 查看实例
        • 重启实例
        • 删除实例
        • 修改实例信息
        • 设置实例公网访问
        • 按需转包周期
        • 重置Kafka密码
        • 重置Kafka Manager密码
        • 重启Kafka Manager
        • 管理实例标签
        • 查看实例后台任务
        • 查看磁盘使用量
        • Topic管理
        • 创建Topic
        • 删除Topic
        • 修改Topic老化时间
        • 修改Topic分区数
        • 修改同步复制和同步落盘
        • 修改分区平衡
        • 查看示例代码
        • 导出Topic
        • 设置Topic权限
        • 查看Topic日志
        • 消息管理
        • 查询消息
        • 删除消息
        • SASL_SSL用户管理
        • 创建SASL_SSL用户
        • 重置SASL_SSL密码
        • 删除SASL_SSL用户
        • 消费组管理
        • 创建消费组
        • 查询消费组信息
        • 删除消费组
        • 重置消费进度
        • 查看消费者连接地址
        • 流控管理
        • 创建流控
        • 编辑流控
        • 删除流控
        • 查看流控监控
        • 修改配置参数
        • 调整资源配额
        • 监控
        • 查看监控数据
        • 支持的监控指标
        • 必须配置的监控告警
        • Kafka数据迁移
        • Kafka数据迁移概述
        • 使用Smart Connect迁移Kafka数据
        • 开启Smart Connect
        • 配置Kafka之间的数据复制
        • 配置Kafka数据转储至OBS
        • 管理Smart Connect任务
        • 关闭Smart Connect
        • 云审计服务支持的关键操作
        • 云审计服务支持的DMS for Kafka操作列表
        • 查看云审计日志
        • 最佳实践
        • DMS for Kafka 消费者poll的优化
        • 如何提高消息处理效率
        • Kafka业务迁移
        • 使用MirrorMaker跨集群数据同步
        • 日志收集系统Flume接入Kafka
        • Kafka客户端使用规范
        • 流数据实时处理框架Flink接入Kafka
        • 日志处理工具Logstash接入Kafka
        • 如何设置消息堆积数超过阈值时,发送告警短信/邮件
        • Kafka Connect接入Kafka
        • Kafka客户端参数配置建议
        • 网络带宽利用率监控告警配置指导
        • 常见问题
        • 实例问题
        • 实例规格变更问题
        • 连接问题
        • Topic和分区问题
        • 消费组问题
        • 消息类问题
        • Kafka Manager问题
        • 监控告警问题
        • 视频专区
        • 文档下载
        • 相关协议
        • 分布式消息服务Kafka服务等级协议(新)
        • 分布式消息服务Kafka服务协议
          无相关产品

          本页目录

          帮助中心分布式消息服务Kafka用户指南Kafka数据迁移Kafka数据迁移概述
          Kafka数据迁移概述
          更新时间 2025-04-14 17:50:01
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2025-04-14 17:50:01
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          本节介绍Kafka数据迁移的概述。

          Kafka迁移指将生产与消费消息的客户端切换成连接新Kafka,部分还涉及将持久化的消息文件迁移到新的Kafka。主要涉及到以下2类场景:

          • 业务上云且不希望业务有中断。

          在上云过程中,连续性要求高的业务,需要平滑迁移,不能有长时间的中断。

          • 在云上变更业务部署。

          单AZ部署的Kafka实例,不具备AZ之间的容灾能力。用户对可靠性要求提升后,需要迁移到多AZ部署的实例上。

          约束与限制

          • 使用Smart Connect迁移业务,会对源端Kafka进行消费,对目标端Kafka进行生产,会占用源端和目标端Kafka的带宽。
          • 出于性能考虑,Smart Connect实时同步源端和目标端的数据,但是消费进度是通过批处理同步的,可能会导致源端和目标端每个分区的消费进度存在0-100之间的差异。

          迁移准备

          1. 配置网络环境。

          Kafka实例分内网地址以及公网地址两种网络连接方式。如果使用公网地址,则消息生成与消费客户端需要有公网访问权限,并配置如下安全组。

          表1-1 安全组规则

          方向 协议 端口 源地址 说明
          入方向 TCP 9094 Kafka客户端所在的IP地址或地址组 通过公网访问Kafka(明文接入)。
          入方向 TCP 9095 Kafka客户端所在的IP地址或地址组 通过公网访问Kafka(密文接入)。
          1. 创建目标Kafka实例。

          目标Kafka的规格不能低于原业务使用的Kafka规格。具体请参考创建Kafka实例。

          1. 在目标Kafka实例中创建Topic。

          在目标Kafka实例上创建与原Kafka实例相同配置的Topic,包括Topic名称、副本数、分区数、消息老化时间,以及是否同步复制和落盘等。具体请参考创建Kafka Topic。

          迁移方案一:先迁生产,再迁消费

          先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。

          本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。

          1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。

          2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。

          3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。

          4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。

          5、重启消费业务,使得消费者从新Kafka实例中消费消息。

          6、观察消费者是否能正常从新Kafka实例中获取数据。

          7、迁移结束。

          ----结束

          迁移方案二:同时消费,后迁生产

          消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。

          本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。

          1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。

          原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。

          2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。

          3、重启生产客户端,将生产业务迁移到新Kafka实例中。

          4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。

          5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。

          6、迁移结束。

          ----结束

          迁移方案三:先迁消费,再迁生产

          首先通过Smart Connect同步两个Kafka的消息,其次将消费端迁移到新Kafka,最后将生产端迁移到新Kafka。

          本方案依赖于Smart Connect,Smart Connect实时同步源端和目标端的数据,但是消费进度是通过批处理同步的,可能会导致源端和目标端每个分区的消费进度存在0-100之间的差异,存在少量重复消费问题。此场景适用于生产端不可停止,端到端有时延要求,但是可以兼容少量重复消费的业务。

          1、创建Kafka数据复制的Smart Connect任务,用于同步两个Kafka的消息。具体步骤请参见配置Kafka间的数据复制。

          2、在Kafka控制台的“消息查询”页面,查看两个Kafka的最新消息是否一致,确认两个Kafka的同步进度是否一致。具体步骤请参见查看Kafka消息。

          • 是,执行第3步。
          • 否,在监控页面查看两个Kafka的“Kafka每分钟同步数据量”是否正常,如果正常,先等待两个Kafka的同步进度一致,然后执行第3步。

          3、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。

          4、重启消费业务,使得消费者从新Kafka实例中消费消息。

          5、观察消费者是否能正常从新Kafka实例中获取数据。

          6、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。

          7、重启生产客户端,将生产业务迁移到新Kafka实例中。

          8、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。

          9、迁移结束。

          ----结束

          常见问题:如何将持久化数据也一起迁移

          如果需要将原Kafka的已消费数据也迁移到Kafka实例,可以使用Smart Connect工具,模拟成原Kafka的消费客户端,以及新Kafka实例的生产客户端,将Kafka所有消息数据迁移到新的Kafka实例,具体步骤请参考配置Kafka间的数据复制。

          需要注意的是,云上Kafka实例为3副本存储,因此建议实例存储空间为原业务的单副本消息存储的3倍。

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  Kafka数据迁移
          下一篇 :  使用Smart Connect迁移Kafka数据
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明