环境
我正在通过python API使用spark v2.4.4
问题
根据火花documentation我可以强迫斯帕克下载所有的蜂巢罐子,以便与我的蜂巢互动。_通过设置以下配置进行元存储
spark.sql.hive.metastore.version=${my_version}spark.sql.hive.metastore.jars=maven但是,当我运行以下python代码时,没有从maven下载任何jar文件。
from pyspark.sql import SparkSession
from pyspark import SparkConf
conf = (
SparkConf()
.setAppName("myapp")
.set("spark.sql.hive.metastore.version", "2.3.3")
.set("spark.sql.hive.metastore.jars","maven")
)
spark = (
SparkSession
.builder
.config(conf=conf)
.enableHiveSupport()
.getOrCreate()
)如何知道没有下载jar文件?
log4j.logger.org.apache.spark.api.python.PythonGatewayServer=INFO在$SPARK中_HOME/conf/log4j.properties。我看不到日志显示spark正在与maven交互。根据this我应该看到一个信息级别日志其他测试
发布于 2021-02-26 06:05:24
对于其他试图解决这个问题的人:
spark.catalog.listDatabases()https://stackoverflow.com/questions/66375524
复制相似问题