首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么火花提交失败与“未能加载类的数据源: org.apache.spark.sql.cassandra”与卡桑德拉连接器在-jars?

为什么火花提交失败与“未能加载类的数据源: org.apache.spark.sql.cassandra”与卡桑德拉连接器在-jars?
EN

Stack Overflow用户
提问于 2016-01-04 10:31:56
回答 1查看 4.3K关注 0票数 0

火花版本: 1.4.1

卡桑德拉版本: 2.1.8

Datastax Cassandra连接器: 1.4.2-SNAPSHOT.jar

我跑的命令

./spark提交--jars /usr/local/src/spark-cassandra-connector/spark-cassandra-connector-java/target/scala-2.10/spark-cassandra-connector-java-assembly-1.4.2-SNAPSHOT.jar --驱动程序--类路径/usr/local/src/spark-cassandra-connector/spark-cassandra-connector-java/target/scala-2.10/spark-cassandra-connector-java-assembly-1.4.2-SNAPSHOT.jar --jars /usr/local/lib/spark-1.4.1/external/kafka/target/scala-2.10/spark-streaming-kafka_2.10-1.4.1.jar --jars /usr/local/lib/spark-1.4.1/external/kafka-assembly/target/scala-2.10/spark-streaming-kafka-assembly_2.10-1.4.1.jar --驱动程序类路径/usr/local/lib/spark-1.4.1/external/kafka/target/scala-2.10/火花流-kafka_2.10-1.4.1.jar-驱动-类-路径/usr/local/lib/spark-1.4.1/external/kafka-assembly/target/scala-2.10/spark-streaming-kafka-assembly_2.10-1.4.1.jar -包org.apache.spark:spark-streaming-kafka_2.10:1.4.1 -执行程序-内存6g -执行器-核心6-主local4 kafka_streaming.py

下面是我遇到的错误:

代码语言:javascript
复制
Py4JJavaError: An error occurred while calling o169.save.
: java.lang.RuntimeException: Failed to load class for data source: org.apache.spark.sql.cassandra

一定是在做傻事。如有任何答复,将不胜感激。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-01-04 14:34:27

尝试在相同的

代码语言:javascript
复制
--jars yourFirstJar.jar,yourSecondJar.jar

用于开发目的的一个更方便的解决方案是使用来自maven central (逗号分隔的)的jars:

代码语言:javascript
复制
--packages org.apache.spark:spark-streaming-kafka_2.10:1.4.1,com.datastax.spark:spark-cassandra-connector_2.10:1.4.1
票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/34589127

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档