Spark配置:在不同的VM /机器上运行master和worker是否有优势?

时间:2019-06-05 07:22:58

标签: apache-spark

我正在使用独立的集群管理器运行Spark集群,我想知道是否应该为主服务器设置单独的VM。另一种方法是在与我的一个工作线程相同的物理计算机上运行主服务器(背景:我有4台物理计算机,并且我必须确定是否还要从基础架构组请求VM。作为该请求的一部分,他们将需要一些技术上的依据。

有什么想法或(甚至更好的)经历吗?文档似乎对此问题保持沉默。

谢谢!

0 个答案:

没有答案
相关问题