Spark Scala用(1和0)生成随机RDD吗?

时间:2018-11-21 09:42:31

标签: scala apache-spark

如何创建一个用数组中的值填充的RDD表示(0,1)-将1000个随机值填充为1,其余为0。

我知道我可以过滤并执行此操作,但这并不是随机的。我希望它尽可能随机

var populationMatrix = new IndexedRowMatrix(RandomRDDs.uniformVectorRDD(sc, populationSize, chromosomeLength)

我正在探索火花中的随机RDD,但可以找到满足我需求的东西。

1 个答案:

答案 0 :(得分:0)

不确定是否要查找它,但是使用此代码,您可以创建随机数介于0到1s之间的RDD数组:

import scala.util.Random

val arraySize = 15 // Total number of elements that you want
val numberOfOnes = 10 // From that total, how many do you want to be ones
val listOfOnes = List.fill(numberOfOnes)(1) // List of 1s
val listOfZeros = List.fill(arraySize - numberOfOnes)(0) // Rest list of 0s
val listOfOnesAndZeros = listOfOnes ::: listOfZeros // Merge lists
val randomList = Random.shuffle(listOfOnesAndZeros) // Random shuffle
val randomRDD = sc.parallelize(randomList) // RDD creation
randomRDD.collect() // Array[Int] = Array(1, 0, 0, 0, 1, 1, 1, 0, 1, 1, 1, 1, 0, 1, 1)

或者,如果您只想使用RDD:

val arraySize = 15
val numberOfOnes = 10

val rddOfOnes = spark.range(numberOfOnes).map(_ => 1).rdd
val rddOfZeros = spark.range(arraySize - numberOfOnes).map(_ => 0).rdd
val rddOfOnesAndZeros = rddOfOnes ++ rddOfZeros
val shuffleResult = rddOfOnesAndZeros.mapPartitions(iter => {
  val rng = new scala.util.Random()
  iter.map((rng.nextInt, _))
}).partitionBy(new org.apache.spark.HashPartitioner(rddOfOnesAndZeros.partitions.size)).values

shuffleResult.collect() // Array[Int] = Array(0, 1, 1, 0, 1, 1, 1, 1, 1, 0, 0, 0, 1, 1, 1)

让我知道您是否需要它。