java.lang.NoClassDefFoundError:从Scala运行JAR时

时间:2013-10-25 08:20:49

标签: java scala jar sbt noclassdeffounderror

我有一个scala项目,我已经使用sbt包和sbt运行构建和运行到目前为止。现在我需要将它们移植到另一台机器上。因此,我可以看到JAR文件是在

下创建的
$PROJECT_HOME/target/scala-2.9.3/My-app_2.9.3-1.0.jar

但是,当我尝试使用

运行它们时
java -jar target/scala-2.9.3/My-app_2.9.3-1.0.jar

错误信息是这样的,

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkContext
    at java.lang.Class.getDeclaredMethods0(Native Method)
    at java.lang.Class.privateGetDeclaredMethods(Class.java:2451)
    at java.lang.Class.getMethod0(Class.java:2694)
    at java.lang.Class.getMethod(Class.java:1622)
    at sun.launcher.LauncherHelper.getMainMethod(LauncherHelper.java:494)
    at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:486)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.SparkContext
    at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
    at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
    at java.security.AccessController.doPrivileged(Native Method)
    at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:423)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:356)

我得到了java.lang.NoClassDefFoundError:org / apache / spark / SparkContext异常。我知道如果JAR无法找到/加载类的定义,通常会发生NoClassDefFoundError。但在我的作品中,我已将这些课程包括在内,

name := "My App"

version := "1.0"

scalaVersion := "2.9.3"

libraryDependencies += "org.apache.spark" %% "spark-core" % "0.8.0-incubating"

有关错误原因的任何指示都会受到赞赏吗?谢谢!

1 个答案:

答案 0 :(得分:3)

您必须构建 fat <​​/ em> jar,其中包含所有依赖项(在您的情况下为spark)或手动将spark工件添加到类路径中。在第一种情况下,你可能不得不为sbt使用onejar或sbt-assembly插件。