Solr分页1亿文档结果集

时间:2014-12-23 15:49:58

标签: solr

我理解Solr中深度分页的挑战/限制以及正在实施的一些新功能。我正在尝试使用单独的索引字段(整数)对非常大的结果集(例如,超过1亿个文档)进行深度分页,其中插入随机变量(在0和某些已知的MAXINT之间)。在查询大型结果集时,我执行初始字段查询而没有返回任何行,然后根据计数,我将范围0除以MAXINT,以便通过在子范围内再次执行查询来获得平均PAGE_COUNT结果。随机变量并抓取该范围内的所有行。显然,实际的行数会有所不同,但应遵循可预测的分布。

我想知道 - 有没有人这么做过?这有用吗?我将报告我的发现,但想要在stackoverflow上找到这个问题的书签。

1 个答案:

答案 0 :(得分:0)

请在此处查看本指南。如果你不想重载Solr

,游标必须足够高效

https://cwiki.apache.org/confluence/display/solr/Pagination+of+Results

相关问题