我正在使用elasticsearch和fscrawler来搜索大约7TB的数据。这个过程开始得很好,直到过了一段时间后才停止。它一定是内存不足,我正在尝试使用https://fscrawler.readthedocs.io/en/latest/admin/jvm-settings.html添加我的堆,但我一直收到错误消息invalid maximum heap size。

这是设置堆的正确方式吗?我遗漏了什么?
发布于 2019-12-11 18:18:52
我认为您使用的是32位版本的Java。如果是这种情况,您需要安装64位JVM,并确保更新您的JAVA_HOME以反映新版本。
更详细的信息可以在here上找到。
https://stackoverflow.com/questions/59283354
复制相似问题