作家
登录

Spark源码分析之分区器的作用

作者: 来源: 2017-04-24 14:03:54 阅读 我要评论

就拿groupbykey来说:

比来因为手抖,在Spark中给本身挖了一个数据倾斜的坑。为懂得决这个问题,顺逼揭捉?究了下Spark分区器的道理,趁着周末加班总结一下~

先说说数据倾斜

数据倾斜是指Spark中的RDD在计算的时刻,每个RDD内部的分区包含的数据不平均。比如一共有5个分区,个一一个占领了90%的数据,这就导致本来5个分区可以5小我一路并行干活,结不雅四小我不怎么干活,工作全都压到一小我身上了。碰到这种问题,网上有很多的解决办法。

比如你想要对某个rdd做groupby,然后做join操作,如不雅分组的key就是分布不平均的,那么真样都是无法优化的。因为一旦这个key被切分,就无法完全的做join了,如不雅纰谬这个key切分,必定会造查对应的分区数据倾斜。

不过,懂得数据为什么会倾斜照样很重要的,持续往下看吧!

分区的感化

在PairRDD即(key,value)这种格局的rdd中,很多操作都是基于key的,是以为了自力瓜分义务,会按照key对数据进行重组。比如groupbykey

重组肯定是须要一个规矩的,最常见的就是基于Hash,Spark还供给了一种稍微复杂点的基于抽样的Range分区办法。

下面我们先看看分区器在Spark计算流程中是怎么应用的:

Paritioner的应用

  1. def groupByKey(): JavaPairRDD[K, JIterable[V]] = 
  2.     fromRDD(groupByResultToJava(rdd.groupByKey())) 

它会调用PairRDDFunction的groupByKey()办法

  1. def groupByKey(): RDD[(K, Iterable[V])] = self.withScope { 
  2.     groupByKey(defaultPartitioner(self)) 
  3.   } 

RangePartitioner

在这个办法琅绫擎创建了默认的分区器。默认的分区器是如许定义的:

起首获取当前分区的分区个数,如不雅没有设置spark.default.parallelism参数,则创建一个跟之前分区个数一样的Hash分区器。

当然,用户也可以自定义分区器,或者应用其他供给的分区器。API琅绫擎也是支撑的:

  1. // 传入分区器对象 
  2. def groupByKey(partitioner: Partitioner): JavaPairRDD[K, JIterable[V]] = 
  3.     fromRDD(groupByResultToJava(rdd.groupByKey(partitioner))) 
  4. // 传入分区的个数 
  5. def groupByKey(numPartitions: Int): JavaPairRDD[K, JIterable[V]] = 
  6.     fromRDD(groupByResultToJava(rdd.groupByKey(numPartitions))) 

HashPatitioner

Hash分区器,是最简单也是默认供给的分区器,懂得它的分区规矩,对我们处理数据倾斜或者设计分组的key时,照样很有赞助的。

  1. class HashPartitioner(partitions: Int) extends Partitioner { 
  2.   require(partitions >= 0, s"Number of partitions ($partitions) cannot be negative."
  3.  
  4.   def numPartitions: Int = partitions 
  5.  
  6.   // 经由过程key寂?驿HashCode,并根据分区数取模。如不雅结不雅小于0,直接加上分区数。 
  7.   def getPartition(keyAny): Int = key match { 
  8.     case null => 0 
  9.     case _ => Utils.nonNegativeMod(key.hashCode, numPartitions) 
  10.   } 
  11.  
  12.   // 比较两个分区器是否雷同,直接比较其分区个数就行 
  13.  1/9    1 2 3 4 5 6 下一页 尾页

      推荐阅读

      SDN能解决很多问题,但不包括安全

    跟着数字化企业尽力寻求最佳安然解决筹划来保护其赓续扩大的收集,很多企颐魅正在寻求供给互操作性功能的下一代对象。软件定义收集(SDN)具有很多的优势,经由过程将多个设备的┞菲握平面整>>>详细阅读


    本文标题:Spark源码分析之分区器的作用

    地址:http://www.17bianji.com/lsqh/34919.html

关键词: 探索发现

乐购科技部分新闻及文章转载自互联网,供读者交流和学习,若有涉及作者版权等问题请及时与我们联系,以便更正、删除或按规定办理。感谢所有提供资讯的网站,欢迎各类媒体与乐购科技进行文章共享合作。

网友点评
自媒体专栏

评论

热度

精彩导读
栏目ID=71的表不存在(操作类型=0)