我在集群的一个节点上使用带有Pyspark内核的Jupyter Notebook,问题是我的/tmp文件夹总是满的。我已经更新了参数:
SPARK_WORKER_OPTS="-Dspark.worker.cleanup.enabled=true -Dspark.worker.cleanup.appDataTtl=172800"问题是这个文件夹只有200 is,当我在Jupyter中关闭内核时,有没有一种方法可以说是引发清理呢?或者,我是否应该将Dspark.worker.cleanup.appDataTtl设置为30分钟,以便每隔30分钟删除所有临时文件/日志?
发布于 2018-04-20 00:09:32
您可以尝试将spark.local.dir参数更改为具有更多空间的其他位置。
https://stackoverflow.com/questions/49925585
复制相似问题