Spark将结构数组转换为用于欧氏距离的向量

时间:2019-07-01 08:32:32

标签: apache-spark apache-spark-sql user-defined-functions apache-spark-mllib

嗨,我有以下数据集列:

+-----------------------+
|hashes                 |
+-----------------------+
|[[-7.0], [0.0], [5.0]] |
|[[-8.0], [1.0], [1.0]] |
|[[-6.0], [1.0], [1.0]] |
+-----------------------+

由以下人员生成:

val brp = new BucketedRandomProjectionLSH().
          setBucketLength(2).
          setNumHashTables(3).
          setInputCol("features").
          setOutputCol("hashes")

    val model = brp.fit(dfVa)
    val dfHash = model.transform(dfVa)

具有以下架构:

|-- hashes: array (nullable = true)
 |    |-- element: vector (containsNull = true)

我想交叉连接到具有相同列的另一个数据集,并使用我制作的UDF计算欧几里得距离:

val euclideanDistance = udf { (v1: Vector, v2: Vector) =>
        sqrt(Vectors.sqdist(v1, v2))
}

cookesWb
   .join(cookesNext)
   .withColumn("Distance", euclideanDistance(
        cookesWb.col("hashes"),
        broadcast(cookesNext.col("hashes"))
   ))
   .filter(col("Distance").lt(80))

但是我遇到以下错误:

cannot resolve 'UDF(hashes, hashes)' due to data type mismatch: argument 1 requires vector type, however, '`hashes`' is of array<struct<type:tinyint,size:int,indices:array<int>,values:array<double>>>  

您知道如何将该杂乱类型转换为Vector以便让我执行该功能吗?
谢谢。

1 个答案:

答案 0 :(得分:1)

在这里,您有一个sparkML向量数组。为了能够使用您的UDF,首先需要将其转换为向量。我们可以为此定义另一个UDF。

import scala.collection.mutable.WrappedArray
import org.apache.spark.ml.linalg.{Vector, Vectors}
val toVect = udf { (x : WrappedArray[Vector]) =>
    // we flatten the array of vectors
    val flatArray : Array[Double] = x.flatMap(_.toArray).toArray 
    Vectors.dense(flatArray)
}

NB:Array[Vector]在这里不起作用。当您在spark中操纵数组并使用UDF时,WrappedArray是您需要使用的类型。

然后,您可以像这样执行crossJoin

df
  .crossJoin(df2)
  .withColumn("d", euclideanDistance(toVect(df.col("hashes")),
                                     toVect(df2.col("hashes"))))
  .show()
相关问题