首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >BROADCASTJOIN提示不适用于PySpark SQL

BROADCASTJOIN提示不适用于PySpark SQL
EN

Stack Overflow用户
提问于 2020-06-28 12:46:54
回答 1查看 1.1K关注 0票数 1

我试图提供广播提示的表是较小的规模,但物理计划仍然显示给我SortMergeJoin。

spark.sql('select /*+ BROADCAST(pratik_test_temp.crosswalk2016) */ * from pratik_test_staging.crosswalk2016 t join pratik_test_temp.crosswalk2016 c on t.serial_id = c.serial_id').explain()

产出:

注意:

表的

  1. 大小在KBs (测试数据)
  2. 连接列'serial_id‘不分区列
  3. 中使用胶水目录作为亚稳态(AWS)
  4. Spark版本-Spark2.4.4

H 111我尝试过BROADCASTJOIN和MAPJOIN提示,以及H 212H 113当我尝试使用created_date分区列而不是serial_id作为我的连接条件时,它显示的是BroadCast连接-<>H 216/code>

spark.sql('select /*+ BROADCAST(pratik_test_temp.crosswalk2016) */ * from pratik_test_staging.crosswalk2016 t join pratik_test_temp.crosswalk2016 c on t.created_date = c.created_date').explain()

产出-

为什么火花行为是奇怪的AWS胶目录作为我的亚稳态?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-06-28 13:45:48

BROADCAST提示中,我们需要传递alias name of the table (因为您在sql语句中保留了别名)。

尝试使用/*+ BROADCAST(c) */*而不是/*+ BROADCAST(pratik_test_temp.crosswalk2016) */ *

代码语言:javascript
复制
spark.sql('select /*+ BROADCAST(c) */ * from pratik_test_staging.crosswalk2016 t join pratik_test_temp.crosswalk2016 c on t.serial_id = c.serial_id').explain()
票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/62622742

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档