文件大小超过Hadoop local.cache.size中定义的限制

时间:2018-10-03 07:56:41

标签: caching bigdata hadoop2

在集群中,我已将local.cache.size定义为10 GB,但是我看到一些文件大小约为24GB。我不明白为什么它增加了定义的限制。大小限制是在群集的初始安装时完成的。

谁能知道解决方案

1 个答案:

答案 0 :(得分:0)

在hadoop2.0中,它已被删除且无效: https://issues.apache.org/jira/browse/HADOOP-7184

相关问题