我使用查询"Create base_stream with“(kafka-topic ="myTopic",format="avro")创建了一个流,这个主题拥有超过800 of的数据并在不断增长。
问题:
中复制数据。
感谢您的回复,谢谢!
发布于 2020-02-24 03:53:14
我知道可以从"base_stream“创建持久流,但是,我们将在两个流中复制数据
仓库很便宜。我见过很多结核病大的话题。如果您能够随着时间的推移发出聚合窗口以减少大小,则可以启用有关该主题的压缩策略和保留策略
当KSQL服务器重新启动时,
base_stream丢失了它的数据。有任何方法来持久化这些数据吗?
您在现有主题的基础上创建了流。没有一个流认为需要恢复或丢失的真实数据,这回答了问题1
https://stackoverflow.com/questions/60368841
复制相似问题