未找到Spark RDD类

时间:2015-02-02 19:22:06

标签: java scala sbt apache-spark sbt-assembly

我是Spark的新手,需要帮助解决错误: java.lang.NoClassDefFoundError: org/apache/spark/rdd/RDD$

我正在Scala中创建一个独立的Spark示例。我运行了sbt clean packagesbt assembly来打包scala spark代码。两者都成功完成没有任何错误。 RDD上的任何操作都会引发错误。任何解决这个问题的指针都会非常有用。

我使用spark-submit命令调用作业。

$SPARK_HOME/bin/spark-submit --class org.apache.spark.examples.GroupTest /Users/../spark_workspace/spark/examples/target/scala-2.10/spark-examples_2.10-1.3.0-SNAPSHOT.jar

1 个答案:

答案 0 :(得分:0)

我设法抛出此错误并通过它。这绝对是一个YMMV答案,但我把它留在这里,以防它最终帮助某人。

就我而言,我在mac上运行自制软件安装spark(1.2.0)和mahout(0.11.0)。这对我来说非常困惑,因为如果我手动运行mahout命令行,我没有得到错误,但如果我从一些python代码中调用它,则会抛出错误。

我意识到我已经在我的个人资料中更新了我的SPARK_HOME变量,而不是使用1.4.1,并在我的副手终端中重新获得了它。我运行python代码的终端仍在使用1.2.0。我在我的python终端中重新获取了我的个人资料,现在它“正常工作”。

整个事情感觉非常黑,如果我猜测抛出这个错误的一些理性原因,也许是因为一个移动部分假设一个不同的火花版本,架构,不管你有什么。这似乎也是评论中暗示的解决方案。