我是谷歌DataProc的新手
出于测试目的,我们希望通过spark-shell或sparkR运行一组代码。可以连接到spark集群并在谷歌DataProc中执行spark-shell或sparkR中的命令吗?
我检查了doc,似乎我们可以使用spark-submit提交作业,但我没有找到与spark-shell或SparkR相关的信息。
发布于 2017-01-25 04:26:36
是。
spark-shell和sparkR安装在dataproc集群中的所有VM上,您可以通过SSH连接到其中任何一个(我通常使用主节点)并运行spark-shell或sparkR。
https://stackoverflow.com/questions/41820952
复制相似问题