我的生产者是apache Kafka,我们想要监听一批事件来处理它们,并将处理后的事件写入数据库。如果我使用流/批处理,每个事件都会命中一个对DB的查询。我不想把每个事件都作为一个查询来处理。如何批量处理一些事件并将这些批量数据写入DB?
注意:我们使用的是DataStream接口
发布于 2021-04-30 05:12:56
没有,Flink没有官方的Neo4j接收器。如果您的目标是通过执行缓冲的、批处理的事务更新来实现端到端的一次,那么您可以从阅读An Overview of End-to-End Exactly-Once Processing in Apache Flink开始,然后联系flink用户邮件列表以获得进一步的指导。
https://stackoverflow.com/questions/67294128
复制相似问题