无法在Spark上运行Java 1.8编译类

时间:2016-03-05 21:57:42

标签: java hadoop apache-spark

我正在尝试使用Spark在Hadoop集群上运行一些测试类。这是我正在使用的命令:

sudo spark-submit --class "Test" --master yarn spark-proj-1.0.jar

这是我得到的错误:

  

线程中的异常" main"因为java.lang.UnsupportedClassVersionError:   测试:不支持的major.minor版本52.0

该错误应该意味着使用比用于运行它们的Java版本更高的Java版本编译类。我使用Java 1.8编译了类,我在集群上安装了Spark 1.3。我安装了Java 1.7,但之后在所有节点上都安装了1.8。 java -version命令告诉我我确实在使用Java 1.8:

  

openjdk version" 1.8.0_71"

     

OpenJDK运行时环境(版本1.8.0_71-b15)

     

OpenJDK 64位服务器VM(版本25.71-b15,混合模式)

0 个答案:

没有答案