如何在PySpark中指定块大小和页大小?我到处搜索,但找不到函数调用或导入库的任何文档。
发布于 2016-07-07 03:01:15
根据火花用户档案
sc.hadoopConfiguration.setInt("dfs.blocksize", some_value)
sc.hadoopConfiguration.setInt("parquet.block.size", some_value)所以在PySpark
sc._jsc.hadoopConfiguration().setInt("dfs.blocksize", some_value)
sc._jsc.hadoopConfiguration().setInt("parquet.block.size", some_value)https://stackoverflow.com/questions/38236892
复制相似问题