假设我创建了一个Spark作业(在Java中),其中包含Spark代码(使用Dataset API)和非Spark代码。看起来Spark代码将被自动并行化并在多台机器上运行。Spark知道只在一台机器上运行regular-Java/non-Spark吗?
发布于 2017-12-08 08:15:07
Spark程序是标准的Scala / Java程序。除非您显式地使用分布/并行化原语,否则代码将完全按原样运行。因此,答案是:
Spark知道只在一台机器上运行regular-
/non-Spark吗?
它就是不在乎。对于JVM,它是普通代码。
https://stackoverflow.com/questions/47705832
复制相似问题