(说到卡夫卡和卡夫卡哈,完全是初学者,所以如果这是个愚蠢的问题,我很抱歉)
我遇到了一个问题,我们有一个保留48小时数据(数百万条记录)的主题;我想知道从这个话题中获得最后的"20分钟“数据,然后再流新消息的最佳方法。
本主题中的每一条消息都是JSON,并且在UNIX毫秒内有一个时间戳,从epoch (UTC)开始。
这里的性能显然是个问题。
发布于 2020-07-28 09:05:42
Java客户机中有一个通过时间戳来抵消的工具。为此,在按下中有一个KafkaJS,它似乎没有被验证和合并。
我想node-rdkafka拿到了。下面是一个例子(参考文献)
node-rdkafka
consumer.offsetsForTimes( [ {topic: 'hi', partition: 0, offset: Date.now() - (20*60*1000) } ], timeout, console.log );
当你得到补偿,你可以寻找它们,并开始阅读。
https://stackoverflow.com/questions/63124990
相似问题