Spark执行器最大内存限制

时间:2016-08-15 22:33:36

标签: scala apache-spark apache-spark-sql

我想知道Spark执行器内存是否有任何大小限制?

考虑运行badass工作进行收集,工会,计数等的情况

只是一点背景,让我们说我有这些资源(2台机器)

Cores: 40 cores, Total = 80 cores
Memory: 156G, Total = 312

什么是推荐,更大的对比较小的执行者?

0 个答案:

没有答案