Hadoop / MapReduce - 优化“前N个”字数MapReduce作业

时间:2012-11-28 16:07:06

标签: algorithm hadoop mapreduce

我正在研究类似于规范MapReduce示例的东西 - 字数,但有一个转折,我只希望获得前N 结果。

假设我在HDFS中有一大堆文本数据。有很多示例显示如何构建Hadoop MapReduce作业,该作业将为该文本中的每个单词提供单词计数。例如,如果我的语料库是:

  

“这是对测试数据的测试,也是测试数据的好方法”

标准MapReduce字数统计工作的结果集将是:

  

测试:3,a:2,这个:2,是:1等。

但是如果我想要获得我的整个数据集中使用的前3个单词怎么办?

我仍然可以运行完全相同的标准MapReduce字数统计作业,然后只需准备好前三个结果并且每个字都吐出计数,但这似乎有点低效,因为很多在洗牌阶段需要移动数据。

我在想的是,如果这个样本足够大,并且数据随机且在HDFS中分布良好,那么每个Mapper都不需要将所有字数发送给Reducers,而是只有部分顶级数据。因此,如果一个映射器具有此:

  

a:8234,:5422,男子:4352,...... 更多的话 ...,稀有:1,怪词:1等。

那么我想要做的只是将每个Mapper中的前100个左右的单词发送到Reducer阶段 - 因为当所有单词被称为“rareword”时,很少有机会突然进入前三名。并做了。这似乎可以节省带宽和减速器处理时间。

这可以在Combiner阶段完成吗?通常在洗牌阶段之前进行这种优化吗?

2 个答案:

答案 0 :(得分:6)

这是一个非常好的问题,因为你已经达到了Hadoop字数统计示例的低效率。

优化问题的技巧如下:

在本地地图阶段进行基于HashMap的分组,您也可以使用合并器。这可能看起来像这样,我正在使用Guava的HashMultiSet,它有助于实现一个很好的计数机制。

    public static class WordFrequencyMapper extends
      Mapper<LongWritable, Text, Text, LongWritable> {

    private final HashMultiset<String> wordCountSet = HashMultiset.create();

    @Override
    protected void map(LongWritable key, Text value, Context context)
        throws IOException, InterruptedException {

      String[] tokens = value.toString().split("\\s+");
      for (String token : tokens) {
        wordCountSet.add(token);
      }
    }

然后在清理阶段发出结果:

@Override
protected void cleanup(Context context) throws IOException,
    InterruptedException {
  Text key = new Text();
  LongWritable value = new LongWritable();
  for (Entry<String> entry : wordCountSet.entrySet()) {
    key.set(entry.getElement());
    value.set(entry.getCount());
    context.write(key, value);
  }
}

因此,您已将字组合在本地工作块中,从而通过使用一些RAM来减少网络使用量。您也可以对Combiner执行相同的操作,但它会进行分组 - 因此这比使用HashMultiset要慢(特别是对于字符串!)。

要获得前N个,您只需要将本地HashMultiset中的前N个写入输出收集器,并以正常方式在reduce侧汇总结果。 这也为您节省了大量网络带宽,唯一的缺点是您需要在清理方法中对字数统计元组进行排序。

部分代码可能如下所示:

  Set<String> elementSet = wordCountSet.elementSet();
  String[] array = elementSet.toArray(new String[elementSet.size()]);
  Arrays.sort(array, new Comparator<String>() {

    @Override
    public int compare(String o1, String o2) {
      // sort descending
      return Long.compare(wordCountSet.count(o2), wordCountSet.count(o1));
    }

  });
  Text key = new Text();
  LongWritable value = new LongWritable();
  // just emit the first n records
  for(int i = 0; i < N, i++){
    key.set(array[i]);
    value.set(wordCountSet.count(array[i]));
    context.write(key, value);
  }

希望你能得到在本地做同样多的话的要点,然后只收集前N个的前N个;)

答案 1 :(得分:5)

引用托马斯

  

要获得前N名,您只需要编写前N名   本地HashMultiset到输出收集器并聚合结果   以正常方式在减少方面。这为您节省了大量的网络费用   带宽也是如此,唯一的缺点就是你需要对它进行排序   清理方法中的字数元组。

如果您只在本地HashMultiset中编写前N个,那么您可能会错过一个元素的数量,如果从本地HashMultiset传递,则可能成为整个前10个元素之一。

例如,请将以下格式视为三个映射为MapName:elementName,elemenntcount:

地图A:Ele1,4:Ele2,5:Ele3,5:Ele4,2

地图B:Ele1,1:Ele5,7:Ele6,3:Ele7,6

地图C:Ele5,4:Ele8,3:Ele1,1:Ele9,3

现在,如果我们考虑每个地图制作者的前三名,我们将错过元素&#34; Ele1&#34;他们的总数应该是6,但由于我们正在计算每个映射器的前三名,我们看到&#34; Ele1&#34;的总数为4。

我希望这是有道理的。请让我知道你对它的看法。

相关问题