首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >pyspark:未找到jar文件中的命名空间

pyspark:未找到jar文件中的命名空间
EN

Stack Overflow用户
提问于 2019-06-06 18:22:49
回答 1查看 91关注 0票数 1

我正在尝试使用PySpark在外部jar中导入类,我使用--jars和包含我想要使用的类的jar的路径运行spark-shell。

但是,当我在代码中导入一个类时,找不到命名空间:

代码语言:javascript
复制
from io.warp10.spark import WarpScriptFilterFunction

错误:

代码语言:javascript
复制
 SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
 Traceback (most recent call last):
   File "warp10-test.py", line 1, in <module>
     from io.warp10.spark import WarpScriptFilterFunction
 ImportError: No module named warp10.spark
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-06-13 00:17:37

如果要在Spark上运行warpscript,则必须使用WarpScript™UDF。

下面是一个示例:

代码语言:javascript
复制
from pyspark.sql import SparkSession
from pyspark.sql import SQLContext
from pyspark.sql.types import StringType
from pyspark.sql.types import ArrayType

spark = SparkSession.builder.appName("WarpScript Spark Test").getOrCreate()
sc = spark.sparkContext

sqlContext = SQLContext(sc)

sqlContext.registerJavaFunction("foo", "io.warp10.spark.WarpScriptUDF3", ArrayType(StringType()))

print sqlContext.sql("SELECT foo('SNAPSHOT \"Easy!\"', 3.14, 'pi')").collect()

有关更多信息,请参阅:https://www.warp10.io/content/05_Ecosystem/04_Data_Science/06_Spark/02_WarpScript_PySpark

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56475608

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档