首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >用于指定激发-shell查询文件的语法(使用elasticsearch-火花连接器)

用于指定激发-shell查询文件的语法(使用elasticsearch-火花连接器)
EN

Stack Overflow用户
提问于 2017-02-04 12:50:07
回答 1查看 473关注 0票数 1

对于shell命令,我想为spark.es.query参数指定一个文件:

代码语言:javascript
复制
] $SPARK_HOME/bin/spark-shell --master local[4] 
    --jars ~/spark/jars/elasticsearch-spark-20_2.11-5.1.2.jar 
    --conf spark.es.nodes="localhost" --conf spark.es.resource="myindex/mytype" 
    --conf spark.es.query="/home/pat/spark/myquery.json"

在外壳中:

代码语言:javascript
复制
scala> import org.elasticsearch.spark._
scala> val es_rdd = sc.esRDD("myindex/mytype")
scala> es_rdd.first()

我得到的输出:

代码语言:javascript
复制
17/02/04 07:41:31 ERROR TaskContextImpl: Error in TaskCompletionListener
org.elasticsearch.hadoop.EsHadoopIllegalArgumentException: Cannot determine 
specified query - doesn't appear to be URI or JSON based and location 
[/home/pat/spark/myquery.json] cannot be opened

当然,路径上存在文件。这是指定查询文件的好方法吗?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-02-04 13:11:25

您将得到此错误,因为spark和es-连接器希望将文件路径作为URI传递:

代码语言:javascript
复制
SPARK_HOME/bin/spark-shell --master local[4] \
 --jars ~/spark/jars/elasticsearch-spark-20_2.11-5.1.2.jar \
 --conf spark.es.nodes="localhost" \
 --conf spark.es.resource="myindex/mytype" \
 --conf spark.es.query="file:///home/pat/spark/myquery.json"
票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/42040585

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档