首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >星火流卡夫卡与Java11 scala代码问题

星火流卡夫卡与Java11 scala代码问题
EN

Stack Overflow用户
提问于 2021-06-07 07:41:15
回答 1查看 258关注 0票数 0

我使用和JDK 11,但是我得到了下面的错误。

线程"main“中的scala.Predef$.refArrayOps([Ljava/lang/Object;)Lscala/collection/mutable/ArrayOps;异常:scala.Predef$.refArrayOps([Ljava/lang/Object;)Lscala/collection/mutable/ArrayOps;

下面是我正在使用的代码。

代码语言:javascript
复制
val conf = new SparkConf().setMaster("local[*]").setAppName("KafkaExample")
      .set("spark.mongodb.input.uri", "mongodb://127.0.0.1/db.table_data")
      .set("spark.mongodb.output.uri", "mongodb://127.0.0.1/db.table_data")
      .set("spark.driver.allowMultipleContexts", "false")
      .set("spark.ui.enabled", "false")

val kafkaParams = Map("metadata.broker.list" -> "localhost:9092")
    val topics = List("topic").toSet
    val lines = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](
      ssc, kafkaParams, topics)

下面是我的pom.xml

代码语言:javascript
复制
<dependency>
          <groupId>org.apache.spark</groupId>
          <artifactId>spark-core_2.12</artifactId>
          <version>2.4.8</version><!--<version>2.3.2</version>-->
      </dependency>
      <dependency>
          <groupId>org.apache.spark</groupId>
          <artifactId>spark-sql_2.12</artifactId>
          <version>2.4.8</version>
      </dependency>
      <dependency>
          <groupId>org.apache.spark</groupId>
          <artifactId>spark-streaming_2.12</artifactId>
          <version>2.4.8</version><!--<version>2.3.2</version>-->
          <!--<scope>provided</scope>-->
      </dependency>
      <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-streaming-kafka-0-10 -->
      <dependency>
          <groupId>org.apache.spark</groupId>
          <artifactId>spark-streaming-kafka_2.11</artifactId>
          <version>1.6.1</version>
      </dependency>
     
      <dependency>
          <groupId>org.mongodb.spark</groupId>
          <artifactId>mongo-spark-connector_2.12</artifactId>
          <version>2.4.3</version>
      </dependency>
      <!-- https://mvnrepository.com/artifact/com.fasterxml.jackson.core/jackson-core -->
      <dependency>
          <groupId>com.fasterxml.jackson.core</groupId>
          <artifactId>jackson-core</artifactId>
          <version>2.10.0</version>
      </dependency>

这个问题出现在KafkaUtils.createDirectStream()中,我检查了maven和scala兼容性,JDK 11与Scala2.12及更高版本兼容,而且我们对spark-streaming-kafka jar没有任何maven依赖。KIndly让我知道我的分析是否错误,我应该为JDK 11的spark-streaming-kafka使用哪个jar

EN

回答 1

Stack Overflow用户

发布于 2021-06-07 12:46:23

  1. DirectStream API是不推荐的,您应该使用火花-SQLKafka-0-10依赖项。茂木星火驱动程序使用Spark还使用

  1. 评论说,您正在混合Scala版本( broker版本并不重要),您还混合了Spark
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/67867716

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档