spark独立的动态资源分配

时间:2016-10-27 08:11:19

标签: apache-spark apache-spark-standalone

我对动态资源分配有疑问/问题。 我使用spark 1.6.2和独立集群管理器。

我有一个有2个核心的工人。 我在所有节点上的spark-defaults.conf文件中设置了以下参数:

spark.dynamicAllocation.enabled  true
spark.shuffle.service.enabled true
spark.deploy.defaultCores 1

我运行一个包含许多任务的示例应用程序。 我在驱动程序上打开端口4040,我可以验证上面的配置是否存在。

我的问题是,无论我做什么,我的应用程序只获得1个核心,即使其他核心可用。

这是正常的还是我的配置有问题?

我想要的行为是这样的: 我有很多用户使用相同的spark集群。 我希望每个应用程序都能获得固定数量的内核,除非其余的clutser待定。 在这种情况下,我希望正在运行的应用程序将获得核心总量,直到新应用程序到达...

我必须为了这个吗?

0 个答案:

没有答案