首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Elasticsearch Spark,如何多次查询?

Elasticsearch Spark,如何多次查询?
EN

Stack Overflow用户
提问于 2019-02-13 20:12:22
回答 1查看 276关注 0票数 0

我用的是jupyter笔记本。

我想使用查询dsl来准备初始数据帧。

我使用conf.set("es.query", dsl_query)实现这一点。(https://www.elastic.co/guide/en/elasticsearch/hadoop/current/configuration.html#_querying)

但是,我想要应用不同的查询来准备另一个数据帧,并且我无法找到在不创建新SparkContext的情况下应用新dsl_query的方法

但我也没有找到在jupyter环境中重新创建SparkContext的方法。

我想使用QueryDSL-1作为基线运行分析,然后使用QueryDSL-2作为另一个基线运行另一个分析

有没有办法在不创建两个笔记本的情况下做到这一点?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-11-25 18:19:01

您只需要将es.query指定为您的DataFrameReader的一个选项,即:

代码语言:javascript
复制
spark.read.option("es.query", dsl_query).option("...", "...")
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/54669929

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档