首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark-shell -i路径/to/文件名替代

Spark-shell -i路径/to/文件名替代
EN

Stack Overflow用户
提问于 2019-10-29 15:48:39
回答 2查看 62关注 0票数 0

我们有:

代码语言:javascript
复制
spark-shell -i path/to/script.scala

要运行scala脚本,是否可以向spark-defaults.conf文件添加类似这样的内容,以便它始终在spark-shell启动时加载scala脚本,从而不必将其添加到命令行。

我想用它来存储我经常使用的import _,凭证和用户定义的函数,这样我就不必在每次启动spark-shell时都输入命令。

谢谢,沙恩

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2019-10-29 18:13:55

您可以转到spark目录/bin,创建文件spark-shell-new.cmd并粘贴spark-shell -i path/to/script.scala,然后像默认spark-shell一样在cmd中运行spark-shell-new

票数 1
EN

Stack Overflow用户

发布于 2019-10-29 17:43:18

你可以这样做

代码语言:javascript
复制
:load <path_to_script>

在该脚本中编写所有必需的代码行

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58603184

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档