我已经构建了一个非常小而直接的Flink应用程序,它使用来自Kafka (json)的事件,将它们反序列化为Java对象,然后创建两个Table,并使用Table API进行一些简单的操作,最后连接这两个表,并将结果写回Kafka
测试这类代码的最佳实践是什么?如何编写集成测试来验证用Table API编写的代码是否产生了正确的结果?
(使用Flink 1.8.3)
发布于 2020-05-18 22:52:56
我们在KafkaTableITCase中增加了对Kafka SQL连接器的集成测试,从1.10开始。它创建一个kafka表并将一些数据写入其中(使用json格式),然后再次读取并应用窗口聚合,最后使用TestingSinkFunction检查窗口结果。你可以在这里查看代码:
https://stackoverflow.com/questions/61823861
复制相似问题