如何使用“标准”分析器在弹性搜索中获得lucene“巨大术语”异常?

时间:2015-12-02 22:03:52

标签: elasticsearch lucene

当我尝试将一些文档索引到elasticsearch时,我得到了一个“巨大的术语”异常;抛出错误的字段使用“标准”分析器,据我所知,它应该是在255处加盖术语并将它们分解为标记。那个过程有什么我想念的吗?如果没有,哪些信息可以帮助解决问题;示例错误:

  

java.lang.IllegalArgumentException:Document在field =“raw_content”中包含至少一个巨大的术语(其UTF8编码长于最大长度32766),所有这些都被跳过。请更正分析仪以不生成此类条款。第一个巨大术语的前缀是:'[60,33,68,79,67,84,89,80,69,32,104,116,109,108,32,80,85,66,76,73 ,67,32,34,45,47,47,87,51,67,47] ......',原始消息:字节长度最多为32766;得到42807

“raw_content”的映射是:

      "raw_content" : {
        "type" : "string",
        "analyzer" : "standard"
      },

0 个答案:

没有答案