在Yarn上运行Spark作业及其使用的内存量

时间:2017-05-23 05:59:49

标签: hadoop yarn

我正在尝试在Hortonworks集群上运行一个简单的Spark作业。

我只是从指标看到,在运行我的作业之前,从640gb内存使用量中有310gb。但是,当我运行我的工作时,它从440gb变为324gb。

我的工作只需要从群集中获取12gb,但不确定为什么在运行作业时群集的总可用内存会减少。

根据Ambari仪表板在纱线记忆面板中报告的指标,它是640gb中的第一个324gb,然后是440gb中的324gb,320gb中的324gb,然后是328gb中的324gb。

我不知道我们的群集上有任何配置,但是这可能是由于配置将纱线内存的使用限制在阈值以下?

0 个答案:

没有答案