Hadoop分布式缓存大小的限制是什么?

时间:2014-05-08 06:35:29

标签: caching hadoop

我是Hadoop的新手,我听说分布式缓存大小最大为10GB。它是否正确?如果我的大小超过10 GB,有什么更好的解决方案吗?

1 个答案:

答案 0 :(得分:3)

默认情况下,缓存大小为10GB。如果您想要更多内存,请在local.cache.size中配置mapred-site.xml以获得更大的值。

不这样做的原因:最好在分布式缓存中保留几MB的数据。否则会影响您的应用程序的性能。

相关问题