日志级别作为 Docker GELF 日志记录驱动程序的字段
Log level as a field for Docker GELF logging driver
我想从 docker 容器中获取标准输出日志并将它们发送到 ELK 堆栈。
到目前为止,我知道 Docker.
中有一个 GELF 日志记录驱动程序
但是,我不知道如何从消息中解析 ERROR
、WARNING
或 DEBUG
消息并将它们放入 [=15= 之类的新字段中] 在 Docker 将它们发送到 ELK 之前的日志消息中。
日志消息应该是这样的:
{
"client": "127.0.0.1",
"user": "frank",
"timestamp": "2000-10-10 13:55:36 -0700",
"method": "GET",
"uri": "/apache_pb.gif",
"protocol": "HTTP/1.0",
"status": 200,
"size": 2326,
"message": "[ERROR] Error connecting to MongoDB",
"_logLevel" : "ERROR"
}
哪个 docker 在发送到 ELK 之前添加了 "_logLevel" : "ERROR"
。
谢谢。
我认为您混淆了 docker 对您的作用以及 logstash(或可能是 logspout)的用途。 Docker Gelf 驱动程序添加以下字段:
Hostname – Container ID – Container Name – Image ID – Image Name – created(容器创建时间) – 级别(stdout 为 6,stderr 为 3,不要与应用程序日志级别混淆)。这些东西 Docker 都知道。 Docker 不了解您的用户或客户。这些字段不是由 gelf 驱动程序或 docker.
创建的
要实现您想要的效果,您必须在 logstash 中使用 grok 过滤器:
我的消息具有日志格式:
${date:format=yyyy-MM-dd HH:mm:ss.fff} | ${correlationId} | ${level} | ${callSite} | ${message}
我 运行 来自 docker 的 logstash 组成如下:
logstash:
image: docker.elastic.co/logstash/logstash:5.3.1
logging:
driver: "json-file"
networks:
- logging
ports:
- "12201:12201"
- "12201:12201/udp"
entrypoint: logstash -e 'input { gelf { } }
filter{
grok {
match=> ["message", "%{SPACE}%{DATESTAMP:timestamp}%{SPACE}\|%{SPACE}%{DATA:correlation_Id}%{SPACE}\|%{SPACE}%{DATA:log_level}%{SPACE}\|%{SPACE}%{DATA:call_site}%{SPACE}\|%{SPACE}%{DATA:message}%{SPACE}$$"]
overwrite => [ "message" ]
}
date {
locale => "en"
match => ["timestamp", "dd-MM-YYYY HH:mm:ss:SSS"]
target => "@timestamp"
remove_field => [ "timestamp" ]
}
}
output { stdout{ } elasticsearch { hosts => ["http://elasticsearch:9200"] } }'
这里我是如何运行 一个以指定格式传送日志的容器(除日期外其他格式都相同):
docker run --log-driver=gelf --log-opt gelf-address=udp://0.0.0.0:12201 ubuntu /bin/sh -c 'while true; do date "+%d-%m-%Y %H:%M:%S:%3N" | xargs printf "%s %s | 51c489da-2ba7-466e-abe1-14c236de54c5 | INFO | HostingLoggerExtensions.RequestFinished | Request finished in 35.1624ms 200 application/json; charset=utf-8 message end\n"; sleep 1 ; done'
我希望这可以帮助您入门。确保在 logstash 之后启动创建日志的容器。
也许阅读 grok documentation 了解更多信息。
我想从 docker 容器中获取标准输出日志并将它们发送到 ELK 堆栈。 到目前为止,我知道 Docker.
中有一个 GELF 日志记录驱动程序但是,我不知道如何从消息中解析 ERROR
、WARNING
或 DEBUG
消息并将它们放入 [=15= 之类的新字段中] 在 Docker 将它们发送到 ELK 之前的日志消息中。
日志消息应该是这样的:
{
"client": "127.0.0.1",
"user": "frank",
"timestamp": "2000-10-10 13:55:36 -0700",
"method": "GET",
"uri": "/apache_pb.gif",
"protocol": "HTTP/1.0",
"status": 200,
"size": 2326,
"message": "[ERROR] Error connecting to MongoDB",
"_logLevel" : "ERROR"
}
哪个 docker 在发送到 ELK 之前添加了 "_logLevel" : "ERROR"
。
谢谢。
我认为您混淆了 docker 对您的作用以及 logstash(或可能是 logspout)的用途。 Docker Gelf 驱动程序添加以下字段: Hostname – Container ID – Container Name – Image ID – Image Name – created(容器创建时间) – 级别(stdout 为 6,stderr 为 3,不要与应用程序日志级别混淆)。这些东西 Docker 都知道。 Docker 不了解您的用户或客户。这些字段不是由 gelf 驱动程序或 docker.
创建的要实现您想要的效果,您必须在 logstash 中使用 grok 过滤器:
我的消息具有日志格式:
${date:format=yyyy-MM-dd HH:mm:ss.fff} | ${correlationId} | ${level} | ${callSite} | ${message}
我 运行 来自 docker 的 logstash 组成如下:
logstash:
image: docker.elastic.co/logstash/logstash:5.3.1
logging:
driver: "json-file"
networks:
- logging
ports:
- "12201:12201"
- "12201:12201/udp"
entrypoint: logstash -e 'input { gelf { } }
filter{
grok {
match=> ["message", "%{SPACE}%{DATESTAMP:timestamp}%{SPACE}\|%{SPACE}%{DATA:correlation_Id}%{SPACE}\|%{SPACE}%{DATA:log_level}%{SPACE}\|%{SPACE}%{DATA:call_site}%{SPACE}\|%{SPACE}%{DATA:message}%{SPACE}$$"]
overwrite => [ "message" ]
}
date {
locale => "en"
match => ["timestamp", "dd-MM-YYYY HH:mm:ss:SSS"]
target => "@timestamp"
remove_field => [ "timestamp" ]
}
}
output { stdout{ } elasticsearch { hosts => ["http://elasticsearch:9200"] } }'
这里我是如何运行 一个以指定格式传送日志的容器(除日期外其他格式都相同):
docker run --log-driver=gelf --log-opt gelf-address=udp://0.0.0.0:12201 ubuntu /bin/sh -c 'while true; do date "+%d-%m-%Y %H:%M:%S:%3N" | xargs printf "%s %s | 51c489da-2ba7-466e-abe1-14c236de54c5 | INFO | HostingLoggerExtensions.RequestFinished | Request finished in 35.1624ms 200 application/json; charset=utf-8 message end\n"; sleep 1 ; done'
我希望这可以帮助您入门。确保在 logstash 之后启动创建日志的容器。
也许阅读 grok documentation 了解更多信息。