爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      flink1.16使用消费/生产kafka之DataStream

      首页 知识中心 其他 文章详情页

      flink1.16使用消费/生产kafka之DataStream

      2023-08-01 08:53:44 阅读次数:425

      Flink,Kafka

      flink高级版本后,消费kafka数据一种是Datastream 一种之tableApi。

      上官网 Kafka | Apache Flink

      Kafka Source

      引入依赖 flink和kafka的连接器,里面内置了kafka-client

      <dependency>
          <groupId>org.apache.flink</groupId>
          <artifactId>flink-connector-kafka</artifactId>
          <version>1.16.2</version>
      </dependency>
      

      使用方法

      KafkaSource<String> source = KafkaSource.<String>builder()
          .setBootstrapServers(brokers)
          .setTopics("input-topic")
          .setGroupId("my-group")
          .setStartingOffsets(OffsetsInitializer.earliest())
          .setValueOnlyDeserializer(new SimpleStringSchema())
          .build();
      
      env.fromSource(source, WatermarkStrategy.noWatermarks(), "Kafka Source");

      很简单一目了然。

      topic和partition

      多个topic
      KafkaSource.builder().setTopics("topic-a", "topic-b");
      正则匹配多个topic
      KafkaSource.builder().setTopicPattern("topic.*");
      指定分区
      final HashSet<TopicPartition> partitionSet = new HashSet<>(Arrays.asList(
              new TopicPartition("topic-a", 0),    // Partition 0 of topic "topic-a"
              new TopicPartition("topic-b", 5)));  // Partition 5 of topic "topic-b"
      KafkaSource.builder().setPartitions(partitionSet);
      

       反序列化

      import org.apache.kafka.common.serialization.StringDeserializer;
      
      KafkaSource.<String>builder()
              .setDeserializer(KafkaRecordDeserializationSchema.valueOnly(StringDeserializer.class));

      其实就是实现接口 DeserializationSchema 的deserialize()方法 把byte转为你想要的类型。

      起始消费位点

      KafkaSource.builder()
          // 从消费组提交的位点开始消费,不指定位点重置策略
          .setStartingOffsets(OffsetsInitializer.committedOffsets())
          // 从消费组提交的位点开始消费,如果提交位点不存在,使用最早位点
          .setStartingOffsets(OffsetsInitializer.committedOffsets(OffsetResetStrategy.EARLIEST))
          // 从时间戳大于等于指定时间戳(毫秒)的数据开始消费
          .setStartingOffsets(OffsetsInitializer.timestamp(1657256176000L))
          // 从最早位点开始消费
          .setStartingOffsets(OffsetsInitializer.earliest())
          // 从最末尾位点开始消费
          .setStartingOffsets(OffsetsInitializer.latest());

      有界 / 无界模式 

      Kafka Source 支持流式和批式两种运行模式。默认情况下,KafkaSource 设置为以流模式运行,因此作业永远不会停止,直到 Flink 作业失败或被取消。 可以使用 setBounded(OffsetsInitializer) 指定停止偏移量使 Kafka Source 以批处理模式运行。当所有分区都达到其停止偏移量时,Kafka Source 会退出运行。

      流模式下运行通过使用 setUnbounded(OffsetsInitializer) 也可以指定停止消费位点,当所有分区达到其指定的停止偏移量时,Kafka Source 会退出运行。

      估计99的人都用不到这个 。也就是设置一个结束的offset的点

      其他属性

      除了上述属性之外,您还可以使用 setProperties(Properties) 和 setProperty(String, String) 为 Kafka Source 和 Kafka Consumer 设置任意属性。KafkaSource 有以下配置项:

      • client.id.prefix,指定用于 Kafka Consumer 的客户端 ID 前缀
      • partition.discovery.interval.ms,定义 Kafka Source 检查新分区的时间间隔。 请参阅下面的动态分区检查一节
      • register.consumer.metrics 指定是否在 Flink 中注册 Kafka Consumer 的指标
      • commit.offsets.on.checkpoint 指定是否在进行 checkpoint 时将消费位点提交至 Kafka broker  这个还是有用的

      Kafka consumer 的配置可以参考 Apache Kafka 文档。

      请注意,即使指定了以下配置项,构建器也会将其覆盖:

      • key.deserializer 始终设置为 ByteArrayDeserializer
      • value.deserializer 始终设置为 ByteArrayDeserializer
      • auto.offset.reset.strategy 被 OffsetsInitializer#getAutoOffsetResetStrategy() 覆盖
      • partition.discovery.interval.ms 会在批模式下被覆盖为 -1

      动态分区检查

      为了在不重启 Flink 作业的情况下处理 Topic 扩容或新建 Topic 等场景,可以将 Kafka Source 配置为在提供的 Topic / Partition 订阅模式下定期检查新分区。要启用动态分区检查,请将 partition.discovery.interval.ms 设置为非负值:

      KafkaSource.builder()
          .setProperty("partition.discovery.interval.ms", "10000"); // 每 10 秒检查一次新分区
      分区检查功能默认 不开启。需要显式地设置分区检查间隔才能启用此功能。

      这个是为了扩容的,因为kafka的消费能力和分区有关,消费能力不够的时候需要动态增加分区 

      事件时间和水印

      默认情况下,Kafka Source 使用 Kafka 消息中的时间戳作为事件时间。您可以定义自己的水印策略(Watermark Strategy) 以从消息中提取事件时间,并向下游发送水印:

      env.fromSource(kafkaSource, new CustomWatermarkStrategy(), "Kafka Source With Custom Watermark Strategy");
      

      消费位点提交 

      Kafka source 在 checkpoint 完成时提交当前的消费位点 ,以保证 Flink 的 checkpoint 状态和 Kafka broker 上的提交位点一致。如果未开启 checkpoint,Kafka source 依赖于 Kafka consumer 内部的位点定时自动提交逻辑,自动提交功能由 enable.auto.commit 和 auto.commit.interval.ms 两个 Kafka consumer 配置项进行配置。

      注意:Kafka source 不依赖于 broker 上提交的位点来恢复失败的作业。提交位点只是为了上报 Kafka consumer 和消费组的消费进度,以在 broker 端进行监控。

      这里是说明消费的offset是由kafka管理还是flink管理。

      举个例子

      .setProperty("enable.auto.commit","true")
      .setProperty(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,"100")
      

      并且env没有 env.enableCheckpoint()

      此时只要消息进入到flink,过了100ms就会被认为已经消费过了offset会+1 不管你这个消息是否处理完,是否处理失败了。

      但是如果你env.enableCheckpoint(),那么此时就是由checkpoint被提交的之前提交offset了。和checkpoint息息相关。checkpoint如果失败了 那么这个offset就不会被提交了。

       

      kafka安全认证

      KafkaSource.builder()
          .setProperty("security.protocol", "SASL_PLAINTEXT")
          .setProperty("sasl.mechanism", "PLAIN")
          .setProperty("sasl.jaas.config", "org.apache.kafka.common.security.plain.PlainLoginModule required username=\"username\" password=\"password\";");

      上面这个比较常用 

      另一个更复杂的例子,使用 SASL_SSL 作为安全协议并使用 SCRAM-SHA-256 作为 SASL 机制:

      KafkaSource.builder()
          .setProperty("security.protocol", "SASL_SSL")
          // SSL 配置
          // 配置服务端提供的 truststore (CA 证书) 的路径
          .setProperty("ssl.truststore.location", "/path/to/kafka.client.truststore.jks")
          .setProperty("ssl.truststore.password", "test1234")
          // 如果要求客户端认证,则需要配置 keystore (私钥) 的路径
          .setProperty("ssl.keystore.location", "/path/to/kafka.client.keystore.jks")
          .setProperty("ssl.keystore.password", "test1234")
          // SASL 配置
          // 将 SASL 机制配置为 as SCRAM-SHA-256
          .setProperty("sasl.mechanism", "SCRAM-SHA-256")
          // 配置 JAAS
          .setProperty("sasl.jaas.config", "org.apache.kafka.common.security.scram.ScramLoginModule required username=\"username\" password=\"password\";");

       

      如果在作业 JAR 中 Kafka 客户端依赖的类路径被重置了(relocate class),登录模块(login module)的类路径可能会不同,因此请根据登录模块在 JAR 中实际的类路径来改写以上配置。

      Kafka Sink

      KafkaSink 可将数据流写入一个或多个 Kafka topic。

      使用方法

      DataStream<String> stream = ...;
              
      KafkaSink<String> sink = KafkaSink.<String>builder()
              .setBootstrapServers(brokers)
              .setRecordSerializer(KafkaRecordSerializationSchema.builder()
                  .setTopic("topic-name")
                  .setValueSerializationSchema(new SimpleStringSchema())
                  .build()
              )
              .setDeliveryGuarantee(DeliveryGuarantee.AT_LEAST_ONCE)
              .build();
              
      stream.sinkTo(sink);

      以下属性在构建 KafkaSink 时是必须指定的:

      • Bootstrap servers, setBootstrapServers(String)
      • 消息序列化器(Serializer), setRecordSerializer(KafkaRecordSerializationSchema)
      • 如果使用DeliveryGuarantee.EXACTLY_ONCE 的语义保证,则需要使用 setTransactionalIdPrefix(String)

       序列化器

      KafkaRecordSerializationSchema.builder()
          .setTopicSelector((element) -> {<your-topic-selection-logic>})
          .setValueSerializationSchema(new SimpleStringSchema())
          .setKeySerializationSchema(new SimpleStringSchema())
          .setPartitioner(new FlinkFixedPartitioner())
          .build();

      其中消息体(value)序列化方法和 topic 的选择方法是必须指定的,此外也可以通过 setKafkaKeySerializer(Serializer) 或 setKafkaValueSerializer(Serializer) 来使用 Kafka 提供而非 Flink 提供的序列化器。

      容错

      KafkaSink 总共支持三种不同的语义保证(DeliveryGuarantee)。对于 DeliveryGuarantee.AT_LEAST_ONCE 和 DeliveryGuarantee.EXACTLY_ONCE,Flink checkpoint 必须启用。默认情况下 KafkaSink 使用 DeliveryGuarantee.NONE。 以下是对不同语义保证的解释:

       

      一旦启用了基于 Kerberos 的 Flink 安全性后,只需在提供的属性配置中包含以下两个设置(通过传递给内部 Kafka 客户端),即可使用 Flink Kafka Consumer 或 Producer 向 Kafk a进行身份验证:

       

      • DeliveryGuarantee.NONE 不提供任何保证:消息有可能会因 Kafka broker 的原因发生丢失或因 Flink 的故障发生重复。
      • DeliveryGuarantee.AT_LEAST_ONCE: sink 在 checkpoint 时会等待 Kafka 缓冲区中的数据全部被 Kafka producer 确认。消息不会因 Kafka broker 端发生的事件而丢失,但可能会在 Flink 重启时重复,因为 Flink 会重新处理旧数据。
      • DeliveryGuarantee.EXACTLY_ONCE: 该模式下,Kafka sink 会将所有数据通过在 checkpoint 时提交的事务写入。因此,如果 consumer 只读取已提交的数据(参见 Kafka consumer 配置 isolation.level),在 Flink 发生重启时不会发生数据重复。然而这会使数据在 checkpoint 完成时才会可见,因此请按需调整 checkpoint 的间隔。请确认事务 ID 的前缀(transactionIdPrefix)对不同的应用是唯一的,以保证不同作业的事务 不会互相影响!此外,强烈建议将 Kafka 的事务超时时间调整至远大于 checkpoint 最大间隔 + 最大重启时间,否则 Kafka 对未提交事务的过期处理会导致数据丢失。
      • 启用 Kerberos 身份验证

      • Flink 通过 Kafka 连接器提供了一流的支持,可以对 Kerberos 配置的 Kafka 安装进行身份验证。只需在 flink-conf.yaml 中配置 Flink。像这样为 Kafka 启用 Kerberos 身份验证:
        1.通过设置以下内容配置 Kerberos 票据

      • security.kerberos.login.use-ticket-cache:默认情况下,这个值是 true,Flink 将尝试在 kinit 管理的票据缓存中使用 Kerberos 票据。注意!在 YARN 上部署的 Flink jobs 中使用 Kafka 连接器时,使用票据缓存的 Kerberos 授权将不起作用。
      • security.kerberos.login.keytab 和 security.kerberos.login.principal:要使用 Kerberos keytabs,需为这两个属性设置值。
        2。将 KafkaClient 追加到 security.kerberos.login.contexts:这告诉 Flink 将配置的 Kerberos 票据提供给 Kafka 登录上下文以用于 Kafka 身份验证。
      • 将 security.protocol 设置为 SASL_PLAINTEXT(默认为 NONE):用于与 Kafka broker 进行通信的协议。使用独立 Flink 部署时,也可以使用 SASL_SSL;请在此处查看如何为 SSL 配置 Kafka 客户端。
      • 将 sasl.kerberos.service.name 设置为 kafka(默认为 kafka):此值应与用于 Kafka broker 配置的 sasl.kerberos.service.name 相匹配。客户端和服务器配置之间的服务名称不匹配将导致身份验证失败。

      问题排查

      数据丢失 

      根据你的 Kafka 配置,即使在 Kafka 确认写入后,你仍然可能会遇到数据丢失。特别要记住在 Kafka 的配置中设置以下属性:

      • acks
      • log.flush.interval.messages
      • log.flush.interval.ms
      • log.flush.*

      UnknownTopicOrPartitionException 

      导致此错误的一个可能原因是正在进行新的 leader 选举,例如在重新启动 Kafka broker 之后或期间。这是一个可重试的异常,因此 Flink job 应该能够重启并恢复正常运行。也可以通过更改 producer 设置中的 retries 属性来规避。但是,这可能会导致重新排序消息,反过来可以通过将 max.in.flight.requests.per.connection 设置为 1 来避免不需要的消息。

      ProducerFencedException 

      这个错误是由于 FlinkKafkaProducer 所生成的 transactional.id 与其他应用所使用的的产生了冲突。多数情况下,由于 FlinkKafkaProducer 产生的 ID 都是以 taskName + "-" + operatorUid 为前缀的,这些产生冲突的应用也是使用了相同 Job Graph 的 Flink Job。 我们可以使用 setTransactionalIdPrefix() 方法来覆盖默认的行为,为每个不同的 Job 分配不同的 transactional.id 前缀来解决这个问题。

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/cclovezbf/article/details/131913551,作者:cclovezbf,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:CountDownLatch和CyclicBarrier学习

      下一篇:ElasticSearch学习(1) 基础操作

      相关文章

      2025-04-15 09:24:56

      深入Kafka:如何保证数据一致性与可靠性?

      幂等性是一个非常重要的概念,特别是在分布式系统中。简单来说,幂等性就是保证在消息重发时,消费者不会重复处理,即使在消费者收到重复消息时,重复处理也要保证最终结果的一致性。

      2025-04-15 09:24:56
      Kafka , Leader , Zookeeper , 控制器 , 消息
      2025-04-15 09:20:07

      Kafka内幕:详解Leader选举与副本同步的那些事儿

      Kafka 的 Leader 选举机制是确保消息高可用性和一致性的关键之一。当某个 Broker 失效时,Kafka 会选举新的 Leader 来继续提供服务。

      2025-04-15 09:20:07
      Kafka , Leader , 副本 , 同步 , 消息
      2025-04-15 09:19:55

      高性能、高可靠性!Kafka的技术优势与应用场景全解析

      Kafka的高吞吐量表现堪称惊人。单机每秒处理几十上百万的消息量,即使存储了TB级别的消息,它依然能够保持稳定的性能。

      2025-04-15 09:19:55
      Kafka , 数据 , 日志 , 消息 , 消费者 , 用户 , 磁盘
      2025-04-14 09:24:23

      Spark Streaming中checkpoint内幕实现彻底解密(源代码提问:checkpoint源代码修改,适用场景:spark的版本升级,数据恢复。。)

      Spark Streaming中checkpoint内幕实现彻底解密(源代码提问:checkpoint源代码修改,适用场景:spark的版本升级,数据恢复。。)

      2025-04-14 09:24:23
      spark , 容错 , 源代码
      2025-04-14 08:45:36

      【Kafka】集成案例:与Spark大数据组件的协同应用

      Apache Kafka 是一个分布式流处理平台,主要用于构建实时数据管道和流式应用。Kafka 由 LinkedIn 开发,并于 2011 年开源,目前由 Apache 软件基金会进行管理。它以高吞吐量、低延迟和可扩展性著称。

      2025-04-14 08:45:36
      Kafka , Spark , 实时 , 应用
      2025-03-26 08:43:34

      从零开始掌握Kafka Rebalance和分区分配

      从零开始掌握Kafka Rebalance和分区分配

      2025-03-26 08:43:34
      Kafka , topic , 分区 , 分配 , 消费者
      2025-03-24 08:52:40

      Flink CDC技术介绍

      Flink CDC(Change Data Capture)是基于数据库的日志CDC技术,实现了全增量一体化读取的数据集成框架,可以高效地实现海量数据的实时集成。

      2025-03-24 08:52:40
      Flink , 实时 , 数据 , 数据源
      2025-03-12 09:32:14

      【Java面试专题】消息中间件篇

      【Java面试专题】消息中间件篇

      2025-03-12 09:32:14
      Kafka , RabbitMQ , 消息 , 队列
      2025-03-12 09:32:14

      Spark 与 Flink 的对比:哪个更适合实时处理?

      Spark 与 Flink 的对比:哪个更适合实时处理?

      2025-03-12 09:32:14
      Flink , Spark , 处理 , 实时 , 数据处理
      2025-03-11 09:36:17

      【flink 零】flink技术概览:flink各项技术一览

      【flink 零】flink技术概览:flink各项技术一览

      2025-03-11 09:36:17
      flink , Flink , 内存 , 源码 , 调优
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5238842

      查看更多

      最新文章

      Kafka内幕:详解Leader选举与副本同步的那些事儿

      2025-04-15 09:20:07

      从零开始掌握Kafka Rebalance和分区分配

      2025-03-26 08:43:34

      深入解析 Flink 与 Spark 的性能差异

      2025-03-06 09:41:26

      Kafka如何做到消息不丢失?

      2025-01-16 09:20:01

      波士顿房价预测实验

      2024-09-25 10:14:21

      132 Kafka 查找message

      2024-06-11 08:20:47

      查看更多

      热门文章

      Kafka 和 Kinesis 之间的对比和选择

      2023-05-30 08:06:30

      解决Flink案例DataStream中使用keyBy(0),keyBy弃用的问题

      2023-04-21 03:15:17

      波士顿房价预测实验

      2024-09-25 10:14:21

      什么是人工智能?什么是机器学习?二者的关系是怎样的?

      2024-04-23 09:44:00

      129 Kafka Consumer的负载均衡

      2024-04-25 09:39:52

      【消息队列技术 RabbitMQ 和 Apache Kafka对比】

      2024-05-31 08:13:27

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      Kafka如何做到消息不丢失?

      Kafka内幕:详解Leader选举与副本同步的那些事儿

      解决Flink案例DataStream中使用keyBy(0),keyBy弃用的问题

      波士顿房价预测实验

      129 Kafka Consumer的负载均衡

      深入解析 Flink 与 Spark 的性能差异

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号