java.util.concurrent.ExecutionException:java.lang.OutOfMemoryError:元空间

时间:2019-01-23 10:15:32

标签: scala apache-spark playframework-2.6 metaspace

我在项目中面临metaSpace问题。

我正在使用Scala IDE,其中包含Spark 2.3.1,Play框架2.6,Scala 2.11

运行sbt run时,出现元空间错误。

此外,我还尝试运行sbt clean

但是它给出了相同的错误:

error

2 个答案:

答案 0 :(得分:0)

在Scala 2.11.11版中使用Spark 2.4.0及更高版本,这将有助于修复这些小错误。

build.sbt

scalaVersion := "2.11.11"

libraryDependencies ++= Seq(
  "com.fasterxml.jackson.module" %% "jackson-module-scala" % "2.9.8",
  "org.apache.spark" %% "spark-core" % "2.4.0",
  "org.apache.spark" %% "spark-repl" % "2.4.0" % "provided",
  "org.apache.spark" %% "spark-sql" % "2.4.0",
)

然后添加jackson-module-scala将帮助您覆盖库中不推荐使用的版本,如果jackson版本有错误。请告诉我是否仍然有错误。

答案 1 :(得分:0)

您可以在项目的根文件夹中添加一个 .jvmopts 文件,并在文件中写入以下内容:

-Xms1g
-Xmx4g

这会将最大内存分配池设置为 4 GB,将初始内存分配池设置为 1 GB。