写入Hive时出现Spark Dataframe OOM错误

时间:2016-08-29 06:28:46

标签: hadoop apache-spark spark-dataframe spark-hive

我有一个用于将Spark数据帧数据放入Hive的应用程序。

第一次,应用程序使用100个内核和10 GB内存,在泄漏了大量32 Mb块后产生OutOfMemory错误。

this OutOfMemory error

之后我运行100核和20GB内存的应用程序获得不同的泄漏大小(64 Mb),然后出现相同的OutOfMemory错误:

same OutOfMemory error

任何人都可以帮我理解这种行为吗?

0 个答案:

没有答案