我使用的是融合式卡夫卡连接服务,但它不是用/var/log/kafka编写日志。如何将其配置为在/var/log/kafka中写入日志?
当前/var/ log /kafka只有以下日志文件-
-rw-r--r-- 1 cp-kafka confluent 0 Sep 20 14:51 kafka-request.log
-rw-r--r-- 1 cp-kafka confluent 0 Sep 20 14:51 kafka-authorizer.log
-rw-r--r-- 1 cp-kafka confluent 1622 Nov 13 15:43 log-cleaner.log
-rw-r--r-- 1 cp-kafka confluent 7611 Nov 13 20:57 state-change.log
-rw-r--r-- 1 cp-kafka confluent 1227 Nov 14 11:13 server.log
-rw-r--r-- 1 cp-kafka confluent 16683 Nov 14 11:13 controller.log当进一步检查时,我发现了写入/var/log/messages (我不想要的)的日志。请看下面的connect-log4j.properties:
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=[%d] %p %m (%c:%L)%n
log4j.logger.org.apache.zookeeper=ERROR
log4j.logger.org.I0Itec.zkclient=ERROR
log4j.logger.org.reflections=ERROR我很难在合流的文档里找到这些基本的东西。请帮帮忙!
发布于 2018-11-14 12:30:39
目前,所有日志似乎都重定向到标准输出。若要将日志重定向到文件,需要将/etc/kafka/connect-log4j.properties的内容更改为:
log4j.rootLogger=INFO, file
log4j.appender.file=org.apache.log4j.RollingFileAppender
log4j.appender.file.File=/var/log/kafka/connect.log
log4j.appender.file.layout=org.apache.log4j.PatternLayout
log4j.appender.file.layout.ConversionPattern=[%d] %p %m (%c:%L)%n
log4j.appender.file.MaxFileSize=10MB
log4j.appender.file.MaxBackupIndex=5
log4j.appender.file.append=true有关log4j的更多细节,您可以参考这篇文章。此外,Robin还编写了一个非常不错的文章,用于将Kafka的REST HTTP消息记录到一个单独的文件中。
https://stackoverflow.com/questions/53297899
复制相似问题