我们有:
spark-shell -i path/to/script.scala要运行scala脚本,是否可以向spark-defaults.conf文件添加类似这样的内容,以便它始终在spark-shell启动时加载scala脚本,从而不必将其添加到命令行。
我想用它来存储我经常使用的import _,凭证和用户定义的函数,这样我就不必在每次启动spark-shell时都输入命令。
谢谢,沙恩
发布于 2019-10-29 18:13:55
您可以转到spark目录/bin,创建文件spark-shell-new.cmd并粘贴spark-shell -i path/to/script.scala,然后像默认spark-shell一样在cmd中运行spark-shell-new。
发布于 2019-10-29 17:43:18
你可以这样做
:load <path_to_script>在该脚本中编写所有必需的代码行
https://stackoverflow.com/questions/58603184
复制相似问题