Spark执行会出现“Invalid Log directory error”

时间:2017-09-09 06:52:05

标签: apache-spark spark-dataframe

我是spark的新手,并试图在群集上执行我的jar。当我运行jar时,作业失败并显示错误错误:无效的日志目录/usr/share/spark-2.1.1/work//7/ 在另一个建议删除标志的线程中:SPARK_WORKER_OPTS =“ - Dspark.worker.cleanup.enabled = true”。我还更改了所有工作者的日志目录的权限。  什么都没有帮助。有人可以帮助我理解它失败的原因。

0 个答案:

没有答案