首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Apache spark:在提交或Spark启动时设置spark.eventLog.enabled和spark.eventLog.dir

Apache spark:在提交或Spark启动时设置spark.eventLog.enabled和spark.eventLog.dir
EN

Stack Overflow用户
提问于 2015-07-06 02:51:40
回答 2查看 17.2K关注 0票数 17

我想将spark.eventLog.enabledspark.eventLog.dir设置在spark-submitstart-all级别--不需要在scala/java/python代码中启用它。我尝试了各种方法,但都没有成功:

spark-defaults.conf设置为

代码语言:javascript
复制
spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://namenode:8021/directory

代码语言:javascript
复制
spark.eventLog.enabled           true
spark.eventLog.dir               file:///some/where

以以下身份运行spark-submit

代码语言:javascript
复制
spark-submit --conf "spark.eventLog.enabled=true" --conf "spark.eventLog.dir=file:///tmp/test" --master spark://server:7077 examples/src/main/python/pi.py

使用环境变量启动spark:

代码语言:javascript
复制
SPARK_DAEMON_JAVA_OPTS="-Dspark.eventLog.enabled=true -Dspark.history.fs.logDirectory=$sparkHistoryDir -Dspark.history.provider=org.apache.spark.deploy.history.FsHistoryProvider -Dspark.history.fs.cleaner.enabled=true -Dspark.history.fs.cleaner.interval=2d"

只是为了杀伤力:

代码语言:javascript
复制
SPARK_HISTORY_OPTS="-Dspark.eventLog.enabled=true -Dspark.history.fs.logDirectory=$sparkHistoryDir -Dspark.history.provider=org.apache.spark.deploy.history.FsHistoryProvider -Dspark.history.fs.cleaner.enabled=true -Dspark.history.fs.cleaner.interval=2d"

必须在哪里以及如何设置这些内容才能获得任意作业的历史记录?

EN

回答 2

Stack Overflow用户

发布于 2015-08-09 13:16:47

我解决了这个问题,但奇怪的是,我以前也尝试过……尽管如此,现在它似乎是一个稳定的解决方案:

HDFS中创建一个用于日志记录的目录,比如/eventLogging

代码语言:javascript
复制
hdfs dfs -mkdir /eventLogging

然后,可以使用以下选项运行spark-shellspark-submit (或其他任何选项):

代码语言:javascript
复制
--conf spark.eventLog.enabled=true --conf spark.eventLog.dir=hdfs://<hdfsNameNodeAddress>:8020/eventLogging

例如:

代码语言:javascript
复制
spark-shell --conf spark.eventLog.enabled=true --conf spark.eventLog.dir=hdfs://<hdfsNameNodeAddress>:8020/eventLogging
票数 11
EN

Stack Overflow用户

发布于 2017-11-22 15:14:40

创建本地目录:

代码语言:javascript
复制
$ mkdir /tmp/spark-events

使用--conf spark.eventLog.enabled运行Spark-shell

代码语言:javascript
复制
$ spark-shell --conf spark.eventLog.enabled --class com.MainClass --packages packages_if_any --master local[4] app.jar
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/31233830

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档