下面是我的Java udf代码
package com.udf;
import org.apache.spark.sql.api.java.UDF1;
public class SparkUDF implements UDF1<String, String> {
@Override
public String call(String arg) throws Exception {
if (validateString(arg))
return arg;
return "INVALID";
}
public static boolean validateString(String arg) {
if (arg == null | arg.length() != 11)
return false;
else
return true;
}
}
我正在使用此类SparkUdf-1.0-SNAPSHOT.jar
我在蜂巢中有一个表名作为示例,并且想在Spark Shell上的sql下运行。
> select UDF(name) from sample ;
使用以下命令启动spark-shell。
spark-shell --jars SparkUdf-1.0-SNAPSHOT.jar
谁能说出如何在spark外壳上注册UDF以便在spark sql中使用它?
答案 0 :(得分:1)
如果您尝试从 Jupyter Notebook 和 S3 上的 UDF jar 测试 UDF:
第 1 步:将您的 UDF JAR 加载到 Jupyter Notebook:
%%configure -f
{
"conf": {
"spark.jars": "s3://s3-path/your-udf.jar"
}
}
第 2 步:在 pySpark 中注册基于 Scala 的 UDF
spark.udf.registerJavaFunction("myudf", "<udf.package>.<UDFClass>")
第 3 步:从 Spark SQL 调用 UDF
df = spark.read.parquet("s3://s3-path-to-test-data/ts_date=2021-04-27")
df.createOrReplaceTempView('stable')
spark.sql("select *, myudf(arg1,arg2) as result from stable ").show(5,False)
答案 1 :(得分:0)
更多搜索后,我得到了答案,
以下是步骤
spark-shell --jars SparkUdf-1.0-SNAPSHOT.jar
scala> import com.udf.SparkUDF;
scala> import com.udf.SparkUDF;
import org.apache.spark.sql.types.{StructType, StructField, StringType, IntegerType};
scala> spark.udf.register("myfunc", new SparkUDF(),StringType)
scala> val sql1 = """ select myfunc(name) from sample """
scala> spark.sql(sql1).show();
您将得到结果。