为什么Guava Bloom过滤器表现如此糟糕?

时间:2016-11-02 19:10:06

标签: java hash guava bloom-filter

我正在尝试确定Google Guava's Bloom Filter是否适用于我的项目,但是在我的测试中,我得到了极高的误报率(可能是由于高水平的哈希冲突? )。

我正在使用2个数据文件运行实验。第一个包含2200万个唯一数字(整数),我将它放入布隆过滤器中。第二个包含另一组完全不同的数字,也是唯一的,我用它来测试布隆过滤器的误报。

这是其中一些数字的示例:

1010061
904436
859990
854448
839175
754186
904491
233955
904491
876342
919575
603051
1012863
989713
323424

我的代码如下:

private static void experiment() {

    // Load 22m unique IDs from file
    ArrayList<String> skus = loadSkus("sku_1.txt");
    int numInsertions = skus.size();

    // Google Guava Bloom Filter
    Funnel<String> strFunnel = (Funnel<String>) (from, into) -> into.putString(from, Charset.forName("US-ASCII"));
    BloomFilter<String> bf = BloomFilter.create(strFunnel, numInsertions, 0.001);

    for (String sku : skus) {
        bf.put(sku);
    }

    int falsePositiveCount = 0;
    double falsePositiveRate;

    // Load another set of unique IDs that are NOT in the first set
    ArrayList<String> skus2 = loadSkus("sku_2.txt");

    for (String sku : skus2) {
        if (bf.mightContain(sku)) {
            falsePositiveCount++;
        }
    }

    falsePositiveRate = (double)falsePositiveCount / (double)skus2.size();

    System.out.println("Expected FPP:     " + Double.toString(bf.expectedFpp()));
    System.out.println("Measured FP rate: " + Double.toString(falsePositiveRate));
}

结果:

Expected FPP:     7.276343403395039E-27
Measured FP rate: 0.9979594547309587

测量的误报率似乎高得令人难以置信!这不是此数据结构的行为方式。我是否以某种方式滥用图书馆?我真的希望通过Bloom Filter获得适当的性能。

1 个答案:

答案 0 :(得分:4)

我无法重现您的结果。我唯一能想到的是它与你的数据文件有关吗?

我使用了你发布的相同代码,除了我像这样生成了skus:

final List<String> skus = ContiguousSet.create(Range.closedOpen(0, 22000000), DiscreteDomain.integers()).stream().map(String::valueOf).collect(Collectors.toList());

final List<String> skus2 = ContiguousSet.create(Range.closedOpen(-22000000, 0), DiscreteDomain.integers()).stream().map(String::valueOf).collect(Collectors.toList());

结果:

Expected FPP:     0.0010001451412535098
Measured FP rate: 9.963636363636364E-4