爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

      首页 知识中心 云端实践 文章详情页

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

      2025-04-22 09:28:31 阅读次数:5

      Key,分区

      一、RDD 的 Shuffle 和分区


      1.1.分区的作用

             RDD 使用分区来分布式并行处理数据, 并且要做到尽量少的在不同的 Executor 之间使用网络交换数据, 所以当使用 RDD 读取数据的时候, 会尽量的在物理上靠近数据源, 比如说在读取 Cassandra 或者 HDFS 中数据的时候, 会尽量的保持 RDD 的分区和数据源的分区数, 分区模式等一 一对应

      1.2.分区和 Shuffle 的关系

             分区的主要作用是用来实现并行计算, 本质上和 Shuffle 没什么关系, 但是往往在进行数据处理的时候, 例如 reduceByKey, groupByKey 等聚合操作, 需要把 Key 相同的 Value 拉取到一起进行计算, 这个时候因为这些 Key 相同的 Value 可能会坐落于不同的分区, 于是理解分区才能理解 Shuffle 的根本原理。

      1.3Spark 中的 Shuffle 操作的特点

      只有 Key-Value 型的 RDD 才会有 Shuffle 操作, 例如 RDD[(K, V)], 但是有一个特例, 就是 repartition 算子可以对任何数据类型 Shuffle,早期版本 Spark 的 Shuffle 算法是 Hash base shuffle, 后来改为 Sort base shuffle, 更适合大吞吐量的场景

      二、RDD 的分区操作


      2.1.查看分区数

      [root@datanode01 bin]# spark-shell --master local[8]
      21/01/17 14:58:19 INFO SecurityManager: Changing view acls to: root
      21/01/17 14:58:19 INFO SecurityManager: Changing modify acls to: root
      21/01/17 14:58:19 INFO SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with vs: Set(root)
      21/01/17 14:58:20 INFO HttpServer: Starting HTTP Server
      21/01/17 14:58:20 INFO Server: jetty-8.y.z-SNAPSHOT
      21/01/17 14:58:20 INFO AbstractConnector: Started SocketConnector@0.0.0.0:38720
      21/01/17 14:58:20 INFO Utils: Successfully started service 'HTTP class server' on port 38720.
      Welcome to
            ____              __
           / __/__  ___ _____/ /__
          _\ \/ _ \/ _ `/ __/  '_/
         /___/ .__/\_,_/_/ /_/\_\   version 1.6.3
            /_/

      Using Scala version 2.10.5 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_162)
      Type in expressions to have them evaluated.
      Type :help for more information.

      scala> sc.parallelize(1 to 100).count
      res0: Long = 100

       【分布式计算框架】Spark RDD 的 Shuffle 和分区

      在本地模式下,访问 http://localhost:4040  

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

             之所以会有 8 个 Tasks, 是因为在启动的时候指定的命令是 spark-shell --master local[8], 这样会生成 1 个 Executors, 这个 Executors 有 8 个 Cores, 所以默认会有 8 个 Tasks, 每个 Cores 对应一个分区, 每个分区对应一个 Tasks, 可以通过 rdd.partitions.size 来查看分区数量

       

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

      默认的分区数量是和 Cores 的数量有关的, 也可以通过如下三种方式修改或者重新指定分区数量

      2.2.创建 RDD 时指定分区数

      scala> val rdd1 = sc.parallelize(1 to 100, 6)
      rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[1] at parallelize at <console>:24
      
      scala> rdd1.partitions.size
      res1: Int = 6
      
      scala> val rdd2 = sc.textFile("hdfs:///dataset/wordcount.txt", 6)
      rdd2: org.apache.spark.rdd.RDD[String] = hdfs:///dataset/wordcount.txt MapPartitionsRDD[3] at textFile at <console>:24
      
      scala> rdd2.partitions.size
      res2: Int = 7

            rdd1 是通过本地集合创建的, 创建的时候通过第二个参数指定了分区数量. rdd2 是通过读取 HDFS 中文件创建的, 同样通过第二个参数指定了分区数, 因为是从 HDFS 中读取文件, 所以最终的分区数是由 Hadoop 的 InputFormat 来指定的, 所以比指定的分区数大了一个.

      2.3.通过 coalesce 算子指定分区数

       def coalesce(numPartitions: Int, shuffle: Boolean = false,
                     partitionCoalescer: Option[PartitionCoalescer] = Option.empty)
                    (implicit ord: Ordering[T] = null)
            : RDD[T] = withScope {
        
        }

      numPartitions

      • 新生成的 RDD 的分区数

      shuffle

      • 是否 Shuffle
      [root@hdp104 ~]# spark-shell
      Setting default log level to "WARN".
      To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
      Spark context Web UI available at http://hdp104:4040
      Spark context available as 'sc' (master = yarn, app id = application_1656052909526_0018).
      Spark session available as 'spark'.
      Welcome to
            ____              __
           / __/__  ___ _____/ /__
          _\ \/ _ \/ _ `/ __/  '_/
         /___/ .__/\_,_/_/ /_/\_\   version 2.3.2.3.1.4.0-315
            /_/
               
      Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_162)
      Type in expressions to have them evaluated.
      Type :help for more information.
      
      scala> val source = sc.parallelize(1 to 100, 6)
      source: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24
      
      scala> source.partitions.size
      res0: Int = 6
      
      scala> val noShuffleRdd = source.coalesce(numPartitions=8, shuffle=false)
      noShuffleRdd: org.apache.spark.rdd.RDD[Int] = CoalescedRDD[1] at coalesce at <console>:25
      
      scala> noShuffleRdd.toDebugString 
      res1: String =
      (6) CoalescedRDD[1] at coalesce at <console>:25 []
       |  ParallelCollectionRDD[0] at parallelize at <console>:24 []
      
      scala> val shuffleRdd = source.coalesce(numPartitions=8, shuffle=true)
      shuffleRdd: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[5] at coalesce at <console>:25
      
      scala>  shuffleRdd.toDebugString
      res2: String =
      (8) MapPartitionsRDD[5] at coalesce at <console>:25 []
       |  CoalescedRDD[4] at coalesce at <console>:25 []
       |  ShuffledRDD[3] at coalesce at <console>:25 []
       +-(6) MapPartitionsRDD[2] at coalesce at <console>:25 []
          |  ParallelCollectionRDD[0] at parallelize at <console>:24 []
      
      scala> noShuffleRdd.partitions.size 
      res3: Int = 6
      
      scala> shuffleRdd.partitions.size
      res4: Int = 8
      • 如果结果产生的文件数要比源RDD partition少,用coalesce是实现不了的,例如有4个小文件(4个partition),你要生成5个文件用coalesce实现不了,也就是说不产生shuffle,无法实现文件数变多
      • 如果你只有1个executor(1个core),源RDD partition有5个,你要用coalesce产生2个文件。那么他是预分partition到executor上的,例如0-2号分区在先executor上执行完毕,3-4号分区再次在同一个executor执行。其实都是同一个executor但是前后要串行读不同数据。与用repartition(2)在读partition上有较大不同(串行依次读0-4号partition 做%2处理)
      *  如果 shuffle 参数指定为 false, 运行计划中确实没有 ShuffledRDD, 没有 shuffled 这个过程
      * 如果 shuffle 参数指定为 true, 运行计划中有一个 ShuffledRDD, 有一个明确的显式的 shuffled 过程
      * 如果 shuffle 参数指定为 false 却增加了分区数, 分区数并不会发生改变, 这是因为增加分区是一个宽依赖, 没有 shuffled 过程无法做到。

      2.4. 通过 repartition 算子指定 

      repartition 算子本质上就是 coalesce(numPartitions, shuffle = true)

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

         repartition 算子无论是增加还是减少分区都是有效的, 因为本质上 repartition 会通过 shuffle 操作把数据分发给新的 RDD 的不同的分区, 只有 shuffle 操作才可能做到增大分区数, 默认情况下, 分区函数是 RoundRobin(轮询), 如果希望改变分区函数, 也就是数据分布的方式, 可以通过自定义分区函数来实现

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

      三、RDD 的 Shuffle 是什么


      读取HDFS wordcount文件,使用 reduceByKey算子产生shuffle

      val sourceRdd = sc.textFile("hdfs://node01:9020/dataset/wordcount.txt")
      val flattenCountRdd = sourceRdd.flatMap(_.split(" ")).map((_, 1))
      val aggCountRdd = flattenCountRdd.reduceByKey(_ + _)
      val result = aggCountRdd.collect

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

          reduceByKey 这个算子本质上就是先按照 Key 分组, 后对每一组数据进行 reduce, 所面临的挑战就是 Key 相同的所有数据可能分布在不同的 Partition 分区中, 甚至可能在不同的节点中, 但是它们必须被共同计算.

              为了让来自相同 Key 的所有数据都在 reduceByKey 的同一个 reduce 中处理, 需要执行一个 all-to-all 的操作, 需要在不同的节点(不同的分区)之间拷贝数据, 必须跨分区聚集相同 Key 的所有数据, 相当于也是跨机器的网络数据拉取过程, 这个过程叫做 Shuffle.

      3.1. RDD的Shuffle 原理(简单介绍)

      Spark 的 Shuffle 发展大致有两个阶段: Hash base shuffle 和 Sort base shuffle(具体来说分为 三个阶段)

      Hash base shuffle

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

      大致的原理是分桶, 假设 Reducer 的个数为 R, 那么每个 Mapper 有 R 个桶, 按照 Key 的 Hash 将数据映射到不同的桶中, Reduce 找到每一个 Mapper 中对应自己的桶拉取数据.

      假设 Mapper 的个数为 M, 整个集群的文件数量是 M * R, 如果有 1,000 个 Mapper 和 Reducer, 则会生成 1,000,000 个文件, 这个量非常大了.

      过多的文件会导致文件系统打开过多的文件描述符, 占用系统资源. 所以这种方式并不适合大规模数据的处理, 只适合中等规模和小规模的数据处理, 在 Spark 1.2 版本中废弃了这种方式.

      Sort base shuffle

      【分布式计算框架】Spark RDD 的 Shuffle 和分区

      对于 Sort base shuffle 来说, 每个 Map 侧的分区只有一个输出文件, Reduce 侧的 Task 来拉取, 大致流程如下

      1. Map 侧将数据全部放入一个叫做 AppendOnlyMap 的组件中, 同时可以在这个特殊的数据结构中做聚合操作

      2. 然后通过一个类似于 MergeSort 的排序算法 TimSort 对 AppendOnlyMap 底层的 Array 排序先按照 Partition ID 排序, 后按照 Key 的 HashCode 排序

      3. 最终每个 Map Task 生成一个 输出文件, Reduce Task 来拉取自己对应的数据

      从上面可以得到结论, Sort base shuffle 确实可以大幅度减少所产生的中间文件, 从而能够更好的应对大吞吐量的场景, 在 Spark 1.2 以后, 已经默认采用这种方式.

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://kangll.blog.csdn.net/article/details/108034252,作者:阿龙先生啊,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:蓝桥杯算法竞赛系列第十章·nSum问题的代码框架

      下一篇:【网络】传输层TCP协议 | 三次握手 | 四次挥手

      相关文章

      2025-04-18 07:10:53

      Hive-DML详解(超详细)

      在Hive中,可以使用INSERT INTO语句将数据插入到表中。

      2025-04-18 07:10:53
      Hive , table , 分区 , 删除 , 插入 , 数据 , 查询
      2025-04-18 07:10:44

      Hive-数据模型详解(超详细)

      Hive是基于Hadoop的数据仓库工具,它提供了类似于SQL的查询语言(称为HQL)来处理大规模结构化和半结构化数据。在使用Hive之前,我们需要了解其基本的数据模型。

      2025-04-18 07:10:44
      Hive , 分区 , 创建 , 数据 , 数据库 , 查询
      2025-04-18 07:10:44

      Impala中kudu基础理论详解(超详细)

      Impala是一种开源的分布式SQL查询引擎,由Cloudera公司于2012年推出。它旨在提供高性能和交互式的数据分析能力,特别适用于大规模数据集。

      2025-04-18 07:10:44
      SQL , 分区 , 数据 , 查询
      2025-04-18 07:10:44

      Hive-分区与分桶详解(超详细)

      在Hive中,分区是将表的数据按照某个列的值进行划分和存储的一种方式。通过分区,可以将数据按照特定的维度进行组织,提高查询效率和数据管理的灵活性。

      2025-04-18 07:10:44
      Hive , 分区 , 分区表 , 数据 , 查询 , 示例
      2025-04-15 09:20:07

      Redis分区指南:如何实现高可用与扩展性

      在Redis的分布式环境中,数据分区是为了将数据存储在多个节点上,以实现更好的负载均衡和可扩展性。Hash是Redis中常见的一种数据分区方式,但它存在一些局限性,需要我们深入探讨。

      2025-04-15 09:20:07
      Hash , Redis , 分区 , 数据 , 节点
      2025-04-15 09:19:55

      初学Java,Hashtable,HashMap,LinkedHashMap和Properties(三十一)

      初学Java,Hashtable,HashMap,LinkedHashMap和Properties(三十一)

      2025-04-15 09:19:55
      HashMap , Hashtable , Key , Map , null , 属性 , 文件
      2025-04-15 09:19:55

      Redis经典问题:BigKey问题

      在Redis中,每个Key都会对应一个Value,而这个Value的大小会影响Redis的性能表现。当我们存储的Value特别大时,就会出现BigKey问题。

      2025-04-15 09:19:55
      Key , Redis , 数据结构 , 系统 , 缓存 , 问题
      2025-04-14 08:45:36

      【Spark】架构与核心组件:大数据时代的必备技能(下)

      【Spark】架构与核心组件:大数据时代的必备技能(下)

      2025-04-14 08:45:36
      DataFrame , Spark , 数据
      2025-03-28 07:40:23

      hive执行分区修复语句(MSCK REPAIR TABLE)时报FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.

      hive执行分区修复语句(MSCK REPAIR TABLE)时报FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.

      2025-03-28 07:40:23
      hdfs , hive , 分区 , 目录
      2025-03-26 08:43:34

      从零开始掌握Kafka Rebalance和分区分配

      从零开始掌握Kafka Rebalance和分区分配

      2025-03-26 08:43:34
      Kafka , topic , 分区 , 分配 , 消费者
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5282722

      查看更多

      最新文章

      MySQL分区表最佳实践

      2024-10-18 09:50:58

      查看更多

      热门文章

      MySQL分区表最佳实践

      2024-10-18 09:50:58

      查看更多

      热门标签

      客户端 实践 基础知识 Java 服务器 java 数据库 框架 python 服务端 学习 代码 简单 javascript 编程
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      MySQL分区表最佳实践

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号