Spark RDD運算元(八)mapPartitions, mapPartitionsWithIndex
Spark RDD運算元(八)
mapPartitions
mapPartitions與map轉換操作類似,只不過對映函式的輸入引數由RDD中的每一個元素變成了RDD中每一個分割槽的迭代器
def mapPartitions[U](f: Iterator[Double] => Iterator[U],preservesPartitioning: Boolean)(implicit evidence$6: scala.reflect.ClassTag[U]): org.apache.spark.rdd.RDD[U]
- 傳入的引數是一個迭代器
- perservesPartitioning指明mapPartitions是否保留父RDD的partitions的分割槽資訊
scala版本
將每個分割槽內元素乘2
// 分為三個區
val rdd1: RDD[Int] = sc.parallelize(List(1,2,3,4,5,6),3)
// mapPartitions需要傳遞
val mapPartitionsRDD: RDD[Int] = rdd1.mapPartitions((f: Iterator[Int]) => {
println(f)
f.map(_ * 2)
})
mapPartitionsRDD.collect().foreach(println)
java版本
JavaRDD<Integer> rdd1 = sc.parallelize(Arrays.asList(1, 2, 3, 4, 5, 6));
JavaRDD<Integer> mapPartitionsRDD = rdd1.mapPartitions(new FlatMapFunction<Iterator<Integer>, Integer>() {
@Override
public Iterator<Integer> call(Iterator<Integer> i) throws Exception {
List<Integer> list = new ArrayList<>();
while (i.hasNext()) {
Integer x = i.next();
list.add(x);
}
return list.iterator();
}
});
List<Integer> collect = mapPartitionsRDD.collect();
for (Integer i : collect) {
System.out.println(i);
}
mapPartitionsWithIndex
mapPartitionWithIndex和mapPartitions功能類似,只是輸入引數時多了一個分割槽的ID
def mapPartitionsWithIndex[U](f: (Int, Iterator[Double]) => Iterator[U],preservesPartitioning: Boolean)(implicit evidence$9: scala.reflect.ClassTag[U]): org.apache.spark.rdd.RDD[U]
scala版本
val rdd1: RDD[Int] = sc.parallelize(List(1,2,3,4,5,6),3)
val f =(x:Int,y:Iterator[Int])=>{
println(x+"號分割槽")
y.map(_*2)
}
val mapPartitionsWithIndexRDD: RDD[Int] = rdd1.mapPartitionsWithIndex(f)
mapPartitionsWithIndexRDD.collect.foreach(println)
java版本
JavaRDD<Integer> rdd1 = sc.parallelize(Arrays.asList(1, 2, 3, 4, 5, 6),3);
Function2<Integer, Iterator<Integer>, Iterator<String>> function2 = new Function2<Integer, Iterator<Integer>, Iterator<String>>() {
@Override
public Iterator<String> call(Integer v1, Iterator<Integer> v2) throws Exception {
System.out.println(v1 + "號分割槽");
List<String> list = new ArrayList<>();
while (v2.hasNext()) {
String s = "hello" + v2.next();
list.add(s);
}
return list.iterator();
}
};
// 第二個引數用於指明是否保留父RDD的partitions的分割槽資訊
JavaRDD<String> mapPartitionsWithIndexRDD = rdd1.mapPartitionsWithIndex(function2, false);
List<String> collect = mapPartitionsWithIndexRDD.collect();
for (String s : collect) {
System.out.println(s);
}
相關文章
- Spark----RDD運算元分類 DAGSpark
- spark RDD textFile運算元 分割槽數量詳解Spark
- Spark運算元:RDD基本轉換操作map、flatMapSpark
- Spark運算元:統計RDD分割槽中的元素及數量Spark
- spark-運算元-分割槽運算元Spark
- spark RDD運算元(五)之鍵值對聚合操作combineByKeySpark
- Spark運算元:RDD行動Action操作學習–countByKey、foreach、sortBySpark
- 【Spark篇】---Spark中控制運算元Spark
- 【Spark篇】---Spark中Action運算元Spark
- Spark運算元篇 --Spark運算元之aggregateByKey詳解Spark
- Spark運算元篇 --Spark運算元之combineByKey詳解Spark
- 【Spark篇】---Spark中transformations運算元二SparkORM
- Spark常用Transformations運算元(一)SparkORM
- Spark常用Transformations運算元(二)SparkORM
- Spark效能調優-RDD運算元調優篇(深度好文,面試常問,建議收藏)Spark面試
- 【Spark篇】---SparkStreaming中運算元中OutPutOperator類運算元Spark
- 【Spark篇】---Spark中Transformations轉換運算元SparkORM
- spark一些常用運算元Spark
- Spark RDD APISparkAPI
- spark-RDDSpark
- Spark RDD使用詳解--RDD原理Spark
- Spark - [03] RDD概述Spark
- spark的基本運算元使用和原始碼解析Spark原始碼
- openGauss核心分析(八):執行運算元探究
- 圖解Spark排序運算元sortBy的核心原始碼圖解Spark排序原始碼
- 【Spark篇】---SparkStreaming運算元操作transform和updateStateByKeySparkORM
- Spark 的核心概念 RDDSpark
- Spark Basic RDD 操作示例Spark
- RDD轉換操作運算元 --- zip(k-v)、join(k)、cogroup(k)、lookup(k)
- Spark開發-spark執行原理和RDDSpark
- SparkSQL /DataFrame /Spark RDD誰快?SparkSQL
- Spark RDD 特徵及其依賴Spark特徵
- spark學習筆記--RDDSpark筆記
- spring-boot-route(八)整合mybatis運算元據庫SpringbootMyBatis
- Spark RDD的預設分割槽數:(spark 2.1.0)Spark
- Spark RDD在Spark中的地位和作用如何?Spark
- Spark(十三) Spark效能調優之RDD持久化Spark持久化
- 使用運算元控制公式運算公式