首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在Cloudera VM中添加spark-csv包时出现问题

在Cloudera VM中添加spark-csv包时出现问题
EN

Stack Overflow用户
提问于 2016-02-08 09:43:33
回答 1查看 878关注 0票数 0

我正在使用Cloudera quickstart VM来测试一些pyspark工作。对于一个任务,我需要添加spark-csv包。下面是我所做的:

代码语言:javascript
复制
PYSPARK_DRIVER_PYTHON=ipython pyspark -- packages com.databricks:spark-csv_2.10:1.3.0

pyspark启动得很好,但是我确实收到了警告:

代码语言:javascript
复制
**16/02/09 17:41:22 WARN util.Utils: Your hostname, quickstart.cloudera resolves to a loopback address: 127.0.0.1; using 10.0.2.15 instead (on interface eth0)
16/02/09 17:41:22 WARN util.Utils: Set SPARK_LOCAL_IP if you need to bind to another address
16/02/09 17:41:26 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable**

然后我在pyspark中运行我的代码:

代码语言:javascript
复制
yelp_df = sqlCtx.load( 
    source="com.databricks.spark.csv",  


    header = 'true',  


    inferSchema = 'true',  


    path = 'file:///directory/file.csv')

但我收到一条错误消息:

代码语言:javascript
复制
Py4JJavaError: An error occurred while calling o19.load.: java.lang.RuntimeException: Failed to load class for data source:    com.databricks.spark.csv at scala.sys.package$.error(package.scala:27)

可能出了什么问题??提前感谢您的帮助。

EN

回答 1

Stack Overflow用户

发布于 2016-02-26 01:23:45

尝尝这个

PYSPARK_DRIVER_PYTHON=ipython pyspark --packages com.databricks:spark-csv_2.10:1.3.0

如果没有空格,就会出现打字错误。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/35261364

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档