我有一个日志文件,它不断地被附加到括号内的以下字段中:

我计划使用Promtail来实时解析这个文件,因为有新的记录被附加到它上面。
使用Promtail可以做到这一点吗?我不确定它是否能处理多行处理。如果确实是这样,那么Promtail期望什么呢?只有一条记录的单个文件经常被新信息覆盖?
发布于 2021-02-16 19:43:45
这是一个相当古老的问题,但仍然是:
是的,这是可能的。我在一个类似的场景中使用它。该服务在文件末尾附加一个新行(JSON),然后由Promtail处理该文件。
promtail配置如下所示:
scrape_configs:
- job_name: <name>
pipeline_stages:
- json:
expressions:
thread: thread
level: level
message: message
timestamp: timestamp
traceID: trace-id
correlationID: correlation-id
- labels:
level:
- template:
source: new_key
template: 'thread={{ .thread }} level={{ .level | ToLower }} correlationID={{ .correlationID }} traceID={{ .traceID }} | {{ .message }}'
- output:
source: new_key
static_configs:
- targets:
- localhost
labels:
job: <some job name>
__path__: /log/output.jsonjson行(简化后)如下所示:
{"instant": {
"epochSecond": 1613470246,
"nanoOfSecond": 779983000
},
"thread": "thread-name",
"level": "WARN",
"loggerName": "it.issome.logger.class.name",
"message": "Some kind of message",
"endOfBatch": false,
"loggerFqcn": "org.apache.logging.slf4j.Log4jLogger",
"threadId": 31,
"threadPriority": 5,
"correlation-id": "correlation-id",
"trace-id": "d6555df8asdf456a",
"timestamp": "2021-02-16T10:10:46.779+0000"
}没有太多关于promtail的好材料和故障排除提示,或者我在寻找它方面很差:)
https://stackoverflow.com/questions/63462192
复制相似问题