首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark程序只在中打印第一行

Spark程序只在中打印第一行
EN

Stack Overflow用户
提问于 2022-03-22 22:51:39
回答 1查看 58关注 0票数 2

我使用SBT构建了一个jar文件,并试图扩展到"Hello,world!“上的第一个代码。当我提交这份工作时,它只打印第一个“你好,世界!”并且不打印rdd的减少(应该是30),也不打印“...after.”。当然,如果我在笔记本电脑上运行火花壳,这三个打印程序就能正常工作。任何指针都会很好,我似乎找不到在寻找什么。

代码语言:javascript
复制
import org.apache.spark.sql.SparkSession
import scala.collection.mutable.ListBuffer
import org.apache.log4j.{Level, Logger}

object HelloWorld {
  def main(args: Array[String]): Unit = {
    println("Hello, world!")
    val sc = SparkSession.builder().master("local").getOrCreate().sparkContext
    val rdd = sc.parallelize(Array(5, 10, 15))
    println(rdd.reduce(_+_))
    println("...after...")
  }
}

我不确定是否需要它,但我的build.sbt文件如下:

代码语言:javascript
复制
name := "HelloWorld"
version := "0.1"
scalaVersion := "2.12.3"
// https://mvnrepository.com/artifact/org.apache.spark/spark-core
libraryDependencies += "org.apache.spark" %% "spark-core" % "3.0.1"
// https://mvnrepository.com/artifact/org.apache.spark/spark-sql
libraryDependencies += "org.apache.spark" %% "spark-sql" % "3.0.1"
// https://mvnrepository.com/artifact/org.apache.spark/spark-graphx
libraryDependencies += "org.apache.spark" %% "spark-graphx" % "3.0.1"
artifactName := { (sv: ScalaVersion, module: ModuleID, artifact: Artifact) => "HelloWorld.jar" }
EN

回答 1

Stack Overflow用户

发布于 2022-03-22 23:08:25

中默认的集群管理器是什么?

您可以从代码中删除母版(“local”)并运行,因此当您在星火提交过程中不提供任何参数时,它将在默认集群管理器上运行。

代码语言:javascript
复制
val sc = SparkSession.builder().getOrCreate().sparkContext
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/71579871

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档