关于“ spark.shuffle.consolidatefiles”的默认配置

时间:2019-05-20 05:15:11

标签: apache-spark

在较新版本的Spark中,“地图改组”的默认行为是什么?

我了解到spark.shuffle.consolidateFile的配置用于通过写缓冲区减少内存成本。但是我找不到配置了。我检查了配置,并从Spark 1.6.0中删除了此配置。那么,较新版本的Spark中Map Shuffling的默认行为是什么?

1 个答案:

答案 0 :(得分:0)

我了解到,哈希改组已由排序改组代替。因此,此配置不再有意义。

相关问题