首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >安装后,不能进口斯提克尼普。

安装后,不能进口斯提克尼普。
EN

Stack Overflow用户
提问于 2017-12-07 22:52:38
回答 3查看 6.7K关注 0票数 5

以下内容在Cloudera CDSW群集网关上成功运行。

代码语言:javascript
复制
import pyspark
from pyspark.sql import SparkSession
spark = (SparkSession
            .builder
            .config("spark.jars.packages","JohnSnowLabs:spark-nlp:1.2.3")
            .getOrCreate()
         )

从而产生这个输出。

代码语言:javascript
复制
Ivy Default Cache set to: /home/cdsw/.ivy2/cache
The jars for the packages stored in: /home/cdsw/.ivy2/jars
:: loading settings :: url = jar:file:/opt/cloudera/parcels/SPARK2-2.2.0.cloudera1-1.cdh5.12.0.p0.142354/lib/spark2/jars/ivy-2.4.0.jar!/org/apache/ivy/core/settings/ivysettings.xml
JohnSnowLabs#spark-nlp added as a dependency
:: resolving dependencies :: org.apache.spark#spark-submit-parent;1.0
    confs: [default]
    found JohnSnowLabs#spark-nlp;1.2.3 in spark-packages
    found com.typesafe#config;1.3.0 in central
    found org.fusesource.leveldbjni#leveldbjni-all;1.8 in central
downloading http://dl.bintray.com/spark-packages/maven/JohnSnowLabs/spark-nlp/1.2.3/spark-nlp-1.2.3.jar ...
    [SUCCESSFUL ] JohnSnowLabs#spark-nlp;1.2.3!spark-nlp.jar (3357ms)
downloading https://repo1.maven.org/maven2/com/typesafe/config/1.3.0/config-1.3.0.jar ...
    [SUCCESSFUL ] com.typesafe#config;1.3.0!config.jar(bundle) (348ms)
downloading https://repo1.maven.org/maven2/org/fusesource/leveldbjni/leveldbjni-all/1.8/leveldbjni-all-1.8.jar ...
    [SUCCESSFUL ] org.fusesource.leveldbjni#leveldbjni-all;1.8!leveldbjni-all.jar(bundle) (382ms)
:: resolution report :: resolve 3836ms :: artifacts dl 4095ms
    :: modules in use:
    JohnSnowLabs#spark-nlp;1.2.3 from spark-packages in [default]
    com.typesafe#config;1.3.0 from central in [default]
    org.fusesource.leveldbjni#leveldbjni-all;1.8 from central in [default]
    ---------------------------------------------------------------------
    |                  |            modules            ||   artifacts   |
    |       conf       | number| search|dwnlded|evicted|| number|dwnlded|
    ---------------------------------------------------------------------
    |      default     |   3   |   3   |   3   |   0   ||   3   |   3   |
    ---------------------------------------------------------------------
:: retrieving :: org.apache.spark#spark-submit-parent
    confs: [default]
    3 artifacts copied, 0 already retrieved (5740kB/37ms)
Setting default log level to "ERROR".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).

但是当我试图像在约翰斯诺实验室上描述的那样导入sparknlp时.

代码语言:javascript
复制
import sparknlp
# or 
from sparknlp.annotator import *

我明白了:

代码语言:javascript
复制
ImportError: No module named sparknlp
ImportError: No module named sparknlp.annotator 

我需要做些什么才能使用麻雀?当然,这可以推广到任何星火包。

EN

回答 3

Stack Overflow用户

回答已采纳

发布于 2017-12-30 19:00:42

我想通了。正确加载的jar文件仅为已编译的Scala文件。我仍然必须将包含包装代码的Python文件放在我可以导入的位置。一旦我这么做了,一切都很顺利。

票数 3
EN

Stack Overflow用户

发布于 2018-02-06 19:37:42

您可以使用以下命令在PySpark中使用PySpark包:

代码语言:javascript
复制
pyspark --packages JohnSnowLabs:spark-nlp:1.3.0

但这并不能告诉Python在哪里可以找到绑定。按照类似报告这里的说明,可以通过将jar目录添加到您的PYTHONPATH来修复这个问题:

代码语言:javascript
复制
export PYTHONPATH="~/.ivy2/jars/JohnSnowLabs_spark-nlp-1.3.0.jar:$PYTHONPATH"

或通过

代码语言:javascript
复制
import sys, glob, os
sys.path.extend(glob.glob(os.path.join(os.path.expanduser("~"), ".ivy2/jars/*.jar")))
票数 5
EN

Stack Overflow用户

发布于 2021-05-20 19:06:30

多亏克莱。以下是我如何设置PYTHONPATH:

代码语言:javascript
复制
git clone --branch 3.0.3 https://github.com/JohnSnowLabs/spark-nlp
export PYTHONPATH="./spark-nlp/python:$PYTHONPATH"

然后它对我起了作用,因为我的./ sparknlp /python文件夹现在包含了难以捉摸的sparknlp模块。

代码语言:javascript
复制
pyspark --packages com.johnsnowlabs.nlp:spark-nlp_2.12:3.0.3

>>> import sparknlp
>>> 
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/47705164

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档