假设我们有几个人在以协作的方式处理Databricks集群。Spark Context和Spark Session在后台发生。
默认情况下,它们是否共享相同的Spark会话?
发布于 2021-11-15 13:21:48
默认开启Spark Session隔离。用户可以通过将spark.databricks.session.share设置为true来禁用会话隔离
您可以在高级集群选项中的Spark config中进行设置:

https://stackoverflow.com/questions/69974690
复制相似问题