首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >geomesa -无法使用geomesa pyspark初始化spark sql会话

geomesa -无法使用geomesa pyspark初始化spark sql会话
EN

Stack Overflow用户
提问于 2021-11-30 14:01:24
回答 1查看 29关注 0票数 0

我正在尝试为pyspark安装geomesa,并在初始化时收到错误

命令:geomesa_pyspark.init_sql(火花)

代码语言:javascript
复制
~/opt/anaconda3/envs/geomesa-pyspark/lib/python3.7/site-packages/geomesa_pyspark/__init__.py in init_sql(spark)
    113 
    114 def init_sql(spark):
--> 115     spark._jvm.org.apache.spark.sql.SQLTypes.init(spark._jwrapped)

TypeError: 'JavaPackage' object is not callable

我已经使用以下代码进行了安装:

代码语言:javascript
复制
pyspark == 2.4.8
geomesa_pyspark using https://repo.eclipse.org/content/repositories/geomesa-releases/org/locationtech/geomesa/
geomesa_pyspark-2.4.0.tar.gz
geomesa-accumulo-spark-runtime_2.11-2.4.0.jar
python 3.7
代码语言:javascript
复制
import geomesa_pyspark
conf = geomesa_pyspark.configure(
    jars=['./jars/geomesa-accumulo-spark-runtime_2.11-2.4.0.jar', './jars/postgresql-42.3.1.jar', './jars/geomesa-spark-sql_2.11-2.4.0.jar'],
    packages=['geomesa_pyspark','pytz'],
    spark_home='/Users/user/opt/anaconda3/envs/geomesa-pyspark/lib/python3.7/site-packages/pyspark').\
    setAppName('MyTestApp')


spark = ( SparkSession
    .builder
    .config(conf=conf) 
    .config('spark.driver.memory', '15g')
    .config('spark.executor.memory', '15g')
    .config('spark.default.parallelism', '10')
    .config('spark.sql.shuffle.partitions', '10')
    .master("local")
    .getOrCreate()
)
EN

回答 1

Stack Overflow用户

发布于 2021-11-30 16:13:54

我替换了

代码语言:javascript
复制
jars=['./jars/geomesa-accumulo-spark-runtime_2.11-2.4.0.jar', './jars/postgresql-42.3.1.jar', './jars/geomesa-spark-sql_2.11-2.4.0.jar'],

代码语言:javascript
复制
jars=['./jars/geomesa-accumulo-spark-runtime_2.11-2.4.0.jar'],

对于postgresql,我在通过pyspark加载数据时传递了.option("driver", "org.postgresql.Driver"),这解决了这个问题。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/70170617

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档