首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >hail.utils.java.FatalError: IllegalStateException:未读块数据

hail.utils.java.FatalError: IllegalStateException:未读块数据
EN

Stack Overflow用户
提问于 2019-11-20 22:45:02
回答 1查看 75关注 0票数 0

我正在试图运行一个基本脚本在星火集群上,它接收一个文件,转换它并以不同的格式输出。火花集群目前由一个主程序和一个从节点组成,它们都运行在同一个节点上。完整的命令是:

代码语言:javascript
复制
nohup spark-submit --master spark://tr-nodedev1:7077 --verbose --conf spark.driver.port=40065 --driver-memory 4g --conf spark.driver.extraClassPath=/opt/seqr/.conda/envs/py37/lib/python3.7/site-packages/hail/hail-all-spark.jar
--conf spark.executor.extraClassPath=./hail-all-spark.jar ./hail_scripts/v02/convert_vcf_to_hail.py /clinvar_37.vcf -ht
--genome-version 37 --output /seqr-reference-hail2/clinvar_37.ht &

它给出了一个错误:

hail.utils.java.FatalError: IllegalStateException:未读块数据

在另一个论坛上可以找到更详细的堆栈跟踪,我在那里问了同样的问题:

https://discuss.hail.is/t/unread-block-data-error-spark-master-slave-issue/1182

这类命令运作良好:

代码语言:javascript
复制
nohup spark-submit --conf spark.driver.extraClassPath=/opt/seqr/.conda/envs/py37/lib/python3.7/site-packages/hail/hail-all-spark.jar 
--conf spark.executor.extraClassPath=./hail-all-spark.jar ./hail_scripts/v02/convert_vcf_to_hail.py /hgmd_pro_2019.3_hg19_noDB.vcf -ht 
--genome-version 37 --output /seqr-reference-hail2/hgmd_2019.3_hg19_noDB.ht &

因此,在本地模式下,它运行得很好,但在独立模式下却不是。所以,我想这是主从不同设置的问题,可能是JAVA。但是,在spark-env.sh中这样设置它们:

导出JAVA_HOME=/usr/lib/jvm/java

出口SPARK_JAVA_OPTS+=“-Djava.library.path= $SPARK_LIBRARY_PATH:$JAVA_HOME”

解决不了这个问题。要启动主+从,我只需使用start-all.sh脚本。如有任何建议,将不胜感激。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-11-21 18:01:13

好的,我们修复了它,解决方案是在运行脚本的命令中添加以下设置:

代码语言:javascript
复制
–jars /opt/seqr/.conda/envs/py37/lib/python3.7/site-packages/hail/hail-all-spark.jar

因此,工作命令如下:

代码语言:javascript
复制
spark-submit --master spark://ai-grisnodedev1:7077 --verbose --conf spark.driver.port=40065 --driver-memory 4g --conf spark.driver.extraClassPath=/opt/seqr/.conda/envs/py37/lib/python3.7/site-packages/hail/hail-all-spark.jar --conf spark.executor.extraClassPath=./hail-all-spark.jar --jars /opt/seqr/.conda/envs/py37/lib/python3.7/site-packages/hail/hail-all-spark.jar test_hail.py

对于未来的Hail0.2用户来说,重要的是要知道这个--jars参数是必需指定的,并且它应该指向HALL-AllSplk.jar。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58964568

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档