Spark:容器运行超出物理内存限制

时间:2018-06-22 10:31:05

标签: apache-spark memory limits snappy

我有一个spark应用程序,该应用程序读取快照压缩的镶木地板文件,然后对它执行大约30个不同的请求,然后将结果聚合到一个csv文件中。

这样做,我有错误:

Container is running beyond physical memory limits. Current usage: 1.5 GB of 1.5 GB physical memory used; 3.5 GB of 3.1 GB virtual memory used

我知道这是一个常见问题,但是我不知道这是由于我的应用程序(我应该对其进行优化吗?)还是由于群集配置引起的。有人说,快速的解压缩也会使用堆外内存,因此应该将其放大。

所以我无法弄清楚该错误的真正原因,物理解释是什么?

0 个答案:

没有答案