首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何添加带有spark-shell的jars?

如何添加带有spark-shell的jars?
EN

Stack Overflow用户
提问于 2020-04-22 01:17:59
回答 1查看 1.7K关注 0票数 0

我尝试了下面这些方法:

代码语言:javascript
复制
>>./spark-shell –-jars /home/my_path/my_jar.jar

在shell中,我尝试导入包:

代码语言:javascript
复制
scala> import com.vertica.spark._
<console>:23: error: object vertica is not a member of package com
       import com.vertica.spark._

它不起作用,我还尝试从jar路径中删除斜杠(/)

代码语言:javascript
复制
>>./spark-shell –-jars home/my_path/my_jar.jar

这仍然是same..there的一个警告

代码语言:javascript
复制
20/04/21 22:34:40 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
Spark context Web UI available at http://ubuntu:4040
Spark context available as 'sc' (master = local[*], app id = local-1587488711233).
Spark session available as 'spark'.
Welcome to

但另一方面,如果我进入shell并尝试使用相同的jar路径添加require,那么它会成功导入:

代码语言:javascript
复制
scala> :require /home/my_path/my_jar.jar
Added '/home/my_path/my_jar.jar' to classpath.

scala> import com.vertica.spark._
import com.vertica.spark._

在添加带有spark-shell本身的jars时,我遗漏了什么?

EN

回答 1

Stack Overflow用户

发布于 2020-04-26 12:16:26

这个问题可能是由于hadoop本机问题造成的,试试下面的源码bashrc,你会很好的。

代码语言:javascript
复制
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH

代码语言:javascript
复制
export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native:$LD_LIBRARY_PATH 
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/61349306

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档