我最近正在尝试使用kafka streaming进行一些敏感数据处理。我希望实现的目标是,当敏感数据被加密时,微服务架构的能力不会受到影响,即,紧密耦合的服务和流数据处理。
我的问题是,在kafka流中,有没有可能我用一个密钥解密传入的消息,然后用另一个密钥再次加密?我有一个计划,但由于我不熟悉kafka streaming,我不能证明kafka streaming有能力使用Streams DSL处理此功能。有没有人能帮我解决这个问题,最好告诉我Streams DSL中的哪个函数可以处理这个问题?
更新:基本上,我问的是:我尝试对流管道中的单个消息使用公钥加密两次。一次在入站主题上,一次在出站主题上。只是不确定DSL是否能够解密和加密,以及密钥应该存储在哪里。
谢谢!
发布于 2020-01-14 11:07:41
如果你只是想防止其他人检查你的数据,Kafka提供了SSL连接,用于客户端和经纪人之间的加密,尽管静态数据仍将是未加密的。您可以将SASL添加到附加的添加授权中,以限制谁可以访问集群。限制对代理文件的SSH访问也会有所帮助
您请求的内容需要a custom Serializer and Deserializer combination,所有Kafka接口都会使用。
在使用Kafka Streams时,您可以将它们包装在一个Serde类中,并在启动它之前将其提供给您的streams属性,或者通过Produced.with或Consumed.with在两个DSL方法之间提供它
https://stackoverflow.com/questions/59726938
复制相似问题