简短的问题是:是否有可能从远程服务器中提取日志(在日志文件中),并将它们摄取到ELK堆栈中。
长话短说如下:
DMZ的设置,它是公开面对的intranet环境,它承载了许多内部系统,包括ELK堆栈。DMZ到intranet建立连接(在IP级别上)。intranet到DMZ建立连接。由于这种设置,我们无法按照在存储日志的服务器上安装Filebeat的正常路线,将消息推送到logstash安装中。
我们想做的事情看上去有点像以下几点:
DMZ中收集服务器上的日志。Filebeat,logstash,另一个elasticsearch实例?)将这些信息保存在本地商店中intranet获得的端口intranet中的另一个工具连接到DMZ工具,并提取所有收集的日志以供进一步处理。到目前为止,我们的研究只得到了将日志信息推送给logstash或elasticsearch的解决方案。
我们不想做的一件事是使用文件兔子直接从intranet获得日志文件。
我们的问题是,我们心中的想法是否可能,如果可能,我们将用什么工具和设置来完成这一任务。
发布于 2019-12-10 14:07:13
您可以使用Kafka作为消息代理进行以下操作
在您的DMZ服务器上,您可以通过文件收集日志并发送到一个logstash实例,然后这个logstash将输出您的日志到kafka。
这是一个简单的管道,包含beats输入、适配器和kafka输出,如果您不想对数据进行任何充实,您可以通过文件节拍将日志直接发送到kafka。
然后,您的kafka代理将在端口上侦听,并等待任何消费者连接并使用这些消息。
在您的intranet上,您将需要一个具有使用kafka输入的管道的logstash实例,该管道将充当卡夫卡用户,并将提取您的消息,然后您可以使用elasticsearch输出存储在您的intranet elasticsearch集群中。
https://stackoverflow.com/questions/59266080
复制相似问题