我想将GeoSpark库添加到Apache Spark中。如何从Spark shell添加GeoSpark库?
发布于 2015-12-19 21:37:52
$ ./bin/spark-shell --master local[4] --jars code.jar
--jars选项会自动将您本地的自定义jar分发到集群。
https://stackoverflow.com/questions/34367085
相似问题