首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >将文件作为命令行参数传递给Spark

将文件作为命令行参数传递给Spark
EN

Stack Overflow用户
提问于 2017-07-06 16:23:28
回答 1查看 1.2K关注 0票数 4

我正在用Scala编写一个Spark作业,需要通过命令行以JSON文件格式发送一些参数,如应用程序名称、主变量和更多变量。

代码语言:javascript
复制
./bin/spark-submit --name "My app" --master local[4] --conf spark.eventLog.enabled=false --conf "spark.executor.extraJavaOptions=-XX:+PrintGCDetails -XX:+PrintGCTimeStamps" myApp.jar

我需要在一个JSON文件中发送应用程序名称、主文件和所有参数,如下所示:

代码语言:javascript
复制
$SPARK_HOME/bin/spark-submit --properties-file  property.conf

这有可能吗?多么?谁能用一个简单的例子来解释一下?

EN

回答 1

Stack Overflow用户

发布于 2017-07-06 16:30:10

您可以使用--jars选项,如下所示:

代码语言:javascript
复制
$SPARK_HOME/bin/spark-submit --jars property.conf --class your.Class your.jar

spark-submit的帮助页面会告诉你更多:

代码语言:javascript
复制
$SPARK_HOME/bin/spark-submit --help

  --jars JARS Comma-separated list of local jars to include on the driver
              and executor classpaths.

除了名称之外,您还可以使用它在驱动程序和执行器的类路径中移动您想要的配置文件。

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/44943498

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档