Apache Spark:资源分配

时间:2019-05-16 14:10:50

标签: apache-spark executor

我想使用Spark处理来自mysql的4gb数据。就节点数,执行程序数,每个节点的核心和内存而言,集群配置可能是什么?如何根据spark中的数据大小决定配置。

0 个答案:

没有答案