我想从databricks查询SAP表。我已经安装了用于连接到SAP服务器的JDBC库。我可以使用spark.read.JDBC(url = jdbcUrl,table = query,properties = connectionProperties)连接和获取记录。在table参数中,我提供了模式和表名。我想获取选择性记录。有没有办法提供查询?
发布于 2021-11-17 12:59:48
您只需要使用标准的Spark函数,如,.filter/.where - Spark会将其转换为相应的SQL查询,并将其下推到数据库中。这个功能(谓词下推)在Spark中默认是启用的,就像您在documentation中看到的那样。
df = spark.read.JDBC(url = jdbcUrl, table = query,
properties = connectionProperties)
filtered = df.filter("condition")https://stackoverflow.com/questions/70000216
复制相似问题