首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在cassandra中更新包含大量数据(80mn+行)的表中的列

在cassandra中更新包含大量数据(80mn+行)的表中的列
EN

Stack Overflow用户
提问于 2021-04-19 23:04:14
回答 1查看 46关注 0票数 3

我在卡桑德拉有一个表,里面几乎有80 million+记录(可能更多)。我已经更新了schama,它在表中添加了一个新列。现在我需要更新列值。我使用cassandra-driver编写了一个迁移脚本来实现这一点。我尝试过batchingtoken,但数据太庞大了,需要3小时以上的时间才能更新记录(过程在2-3小时后终止)。处理这种类型的迁移的最佳方法是什么?有没有其他方法可以做到这一点?

Token example

EN

回答 1

Stack Overflow用户

发布于 2021-04-24 02:02:10

通常,对于这样的事情,使用Spark更容易(尽管我不确定它是否适用于Amazon Keyspace)。正确地做距离扫描是相当困难的-你需要处理边缘情况,等等(我有一个an example for Java driver,它使用与Spark Cassandra ConnectorDSBulk相同的算法)。

您可以使用Python with Spark和Cassandra Connector来更新您的数据-更新的复杂性将取决于您的算法。

另一种方法是将逻辑放入您的应用程序中-如果它从Cassandra null接收给定列的值,您可以返回计算值。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/67164506

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档