首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >AWS海王星大容量删除数据

AWS海王星大容量删除数据
EN

Stack Overflow用户
提问于 2020-03-09 15:44:12
回答 2查看 1.7K关注 0票数 5

我想大容量删除节点,就像我们可以使用AWS海王星中的curl操作来大容量加载数据一样。是否有像我为SPARQL看到的针对gremlin的API约定?如果是的话,你能张贴推荐信吗?

如果没有通过API进行大容量删除,那么使用进行大容量删除是可行的吗?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2020-03-09 15:50:42

在这个位置,有一个如何使用多线程Python删除图形的例子。代码可以进一步改进以处理非常大的图形。评论中讨论了这一点。使用此代码,我成功地删除了具有20+百万顶点的图。

https://github.com/awslabs/amazon-neptune-tools/tree/master/drop-graph

编辑了2021-11-17,如果您想删除所有内容,Amazon现在提供了一个“快速重置”API,允许您高效地删除集群中的所有数据。

https://docs.aws.amazon.com/neptune/latest/userguide/manage-console-fast-reset.html

票数 9
EN

Stack Overflow用户

发布于 2021-11-17 13:31:11

我们可以将顶点内的一批元素作为参数传递,如下所示:

代码语言:javascript
复制
vertex_ids = ['f1b8','e5123','02d49','50804',c71c3','c1061577']
g.V(vertex_ids).drop().iterate()

我的批号是10k vertex_ids。对我来说挺好的。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/60603997

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档