在这个例子中,我看到了用scala编写数据的方法。有没有一种用python编写星云数据的方法?
/spark/bin/pyspark --driver-class-path nebula-spark-connector-3.0.0.jar --jars nebula-spark-connector-3.0.0.jar
df = spark.read.format(
"com.vesoft.nebula.connector.NebulaDataSource").option(
"type", "vertex").option(
"spaceName", "basketballplayer").option(
"label", "player").option(
"returnCols", "name,age").option(
"metaAddress", "metad0:9559").option(
"partitionNumber", 1).load()发布于 2022-10-02 15:19:36
pyspark似乎已经得到了nebula-spark-connector的支持。相关问题已被解决并关闭了关于第19期吉特卜问题。
如果您在Github项目自述文件上搜索"pyspark“,您将看到一些示例。
在启动spark应用程序之前,请确保在SparkConf中设置了火花连接器jar文件的路径。
一个来自自述的例子:
df.write.format("com.vesoft.nebula.connector.NebulaDataSource").option(
"type", "vertex").option(
"spaceName", "basketballplayer").option(
"label", "player").option(
"vidPolicy", "").option(
"vertexField", "_vertexId").option(
"batch", 1).option(
"metaAddress", "metad0:9559").option(
"graphAddress", "graphd1:9669").option(
"passwd", "nebula").option(
"user", "root").save()https://stackoverflow.com/questions/73710806
复制相似问题