Spark构建失败

时间:2017-01-19 05:38:53

标签: scala maven apache-spark spark-hive

我已从apache站点下载了spark源,然后使用maven构建了源代码。

spark - version 1.6.3
hadoop - version 2.7.3
scala - version 2.10.4 


我用下面的命令来构建项目

 .build/mvn -Pyarn -Phadoop-2.7 -Dhadoop.version=2.7.3 -Phive -Phive-thriftserver -Dscala-2.10 -DskipTests clean package

我试过版本 - Phadoop-2.4,2.6但是每次我在hive构建时遇到错误 -

  

无法执行目标net.alchim31.maven:scala-maven-plugin:3.2.2:在项目spark-hive_2.10上编译(scala-compile-first):wrap:scala.reflect.internal.MissingRequirementError:object未找到编译器镜像中的scala.runtime。 - > [帮助1]

enter image description here

0 个答案:

没有答案
相关问题