如何在SparkSQL中实现Like-condition?

时间:2015-09-11 12:56:01

标签: sql apache-spark apache-spark-sql

如何编写SQL语句以达到目标,如下面的语句:

SELECT * FROM table t WHERE t.a LIKE '%'||t.b||'%';

感谢。

1 个答案:

答案 0 :(得分:9)

spark.sql.Column提供like方法,但就目前而言(Spark 1.6.0 / 2.0.0),它只适用于字符串文字。你仍然可以使用原始SQL:

import org.apache.spark.sql.hive.HiveContext
val sqlContext = new HiveContext(sc) // Make sure you use HiveContext
import sqlContext.implicits._ // Optional, just to be able to use toDF

val df = Seq(("foo", "bar"), ("foobar", "foo"), ("foobar", "bar")).toDF("a", "b")

df.registerTempTable("df")
sqlContext.sql("SELECT * FROM df  WHERE a LIKE CONCAT('%', b, '%')")

// +------+---+
// |     a|  b|
// +------+---+
// |foobar|foo|
// |foobar|bar|
// +------+---+

expr / selectExpr

df.selectExpr("a like CONCAT('%', b, '%')")

在Spark 1.5中,它将需要HiveContext。如果由于某种原因Hive上下文不是一个选项,您可以使用自定义udf

import org.apache.spark.sql.functions.udf

val simple_like = udf((s: String, p: String) => s.contains(p))
df.where(simple_like($"a", $"b"))

val regex_like = udf((s: String, p: String) =>
  new scala.util.matching.Regex(p).findFirstIn(s).nonEmpty)
df.where(regex_like($"a", $"b"))