首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Lucene分类法作家泛滥?

Lucene分类法作家泛滥?
EN

Stack Overflow用户
提问于 2017-12-06 22:49:06
回答 1查看 99关注 0票数 0

我有一个Lucene索引,其中有超过1.2亿记录,它一直在顺利和迅速地工作到目前为止。然而,今天我开始收到:

代码语言:javascript
复制
java.lang.ArrayIndexOutOfBoundsException: -65536
lemur   at org.apache.lucene.util.ByteBlockPool.setBytesRef(ByteBlockPool.java:308)
lemur   at org.apache.lucene.util.BytesRefHash.equals(BytesRefHash.java:183)
lemur   at org.apache.lucene.util.BytesRefHash.findHash(BytesRefHash.java:330)
lemur   at org.apache.lucene.util.BytesRefHash.find(BytesRefHash.java:319)
lemur   at org.apache.lucene.facet.taxonomy.writercache.UTF8TaxonomyWriterCache.get(UTF8TaxonomyWriterCache.java:65)
lemur   at org.apache.lucene.facet.taxonomy.directory.DirectoryTaxonomyWriter.addCategory(DirectoryTaxonomyWriter.java:411)
lemur   at org.apache.lucene.facet.FacetsConfig.processFacetFields(FacetsConfig.java:322)
lemur   at org.apache.lucene.facet.FacetsConfig.build(FacetsConfig.java:285)

我不知道这是由于内存问题、22 with索引还是其他原因,但是深入挖掘这个跟踪与分类法编写器缓存系统有关。我已经验证过,在相同的记录中,这种情况并不总是发生,但似乎是某种类型的内存溢出问题。不幸的是,我不知道该从这里做什么,或者我甚至在正确的轨道上理解实际的问题。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-12-06 23:48:42

经过进一步的研究,我发现UTF8TaxonomyWriterCache不是一个很好的大数据缓存机制。在切换到使用LruTaxonomyWriterCache之后,一切又恢复了正常。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/47684818

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档