日志级别作为 Docker GELF 日志记录驱动程序的字段

Log level as a field for Docker GELF logging driver

我想从 docker 容器中获取标准输出日志并将它们发送到 ELK 堆栈。 到目前为止,我知道 Docker.

中有一个 GELF 日志记录驱动程序

但是,我不知道如何从消息中解析 ERRORWARNINGDEBUG 消息并将它们放入 [=15= 之类的新字段中] 在 Docker 将它们发送到 ELK 之前的日志消息中。

日志消息应该是这样的:

{
  "client": "127.0.0.1",
  "user": "frank",
  "timestamp": "2000-10-10 13:55:36 -0700",
  "method": "GET",
  "uri": "/apache_pb.gif",
  "protocol": "HTTP/1.0",
  "status": 200,
  "size": 2326,
  "message": "[ERROR] Error connecting to MongoDB",
  "_logLevel" : "ERROR"
}

哪个 docker 在发送到 ELK 之前添加了 "_logLevel" : "ERROR"

谢谢。

我认为您混淆了 docker 对您的作用以及 logstash(或可能是 logspout)的用途。 Docker Gelf 驱动程序添加以下字段: Hostname – Container ID – Container Name – Image ID – Image Name – created(容器创建时间) – 级别(stdout 为 6,stderr 为 3,不要与应用程序日志级别混淆)。这些东西 Docker 都知道。 Docker 不了解您的用户或客户。这些字段不是由 gelf 驱动程序或 docker.

创建的

要实现您想要的效果,您必须在 logstash 中使用 grok 过滤器:

我的消息具有日志格式:

${date:format=yyyy-MM-dd HH:mm:ss.fff} | ${correlationId} | ${level} | ${callSite} | ${message}

我 运行 来自 docker 的 logstash 组成如下:

  logstash:
    image: docker.elastic.co/logstash/logstash:5.3.1
    logging:
      driver: "json-file"
    networks:
      - logging
    ports:
      - "12201:12201"
      - "12201:12201/udp"
    entrypoint: logstash -e 'input { gelf { } }
                        filter{
                                grok { 
                                    match=> ["message", "%{SPACE}%{DATESTAMP:timestamp}%{SPACE}\|%{SPACE}%{DATA:correlation_Id}%{SPACE}\|%{SPACE}%{DATA:log_level}%{SPACE}\|%{SPACE}%{DATA:call_site}%{SPACE}\|%{SPACE}%{DATA:message}%{SPACE}$$"]
                                    overwrite => [ "message" ]
                                }
                                date {
                                    locale => "en"
                                    match => ["timestamp", "dd-MM-YYYY HH:mm:ss:SSS"]
                                    target => "@timestamp"
                                    remove_field => [ "timestamp" ]
                                }
                        }
                        output { stdout{ } elasticsearch { hosts => ["http://elasticsearch:9200"] } }'

这里我是如何运行 一个以指定格式传送日志的容器(除日期外其他格式都相同):

docker run --log-driver=gelf --log-opt gelf-address=udp://0.0.0.0:12201 ubuntu /bin/sh -c 'while true; do date "+%d-%m-%Y %H:%M:%S:%3N" | xargs printf "%s %s | 51c489da-2ba7-466e-abe1-14c236de54c5 | INFO | HostingLoggerExtensions.RequestFinished    | Request finished in 35.1624ms 200 application/json; charset=utf-8 message end\n"; sleep 1 ; done'

我希望这可以帮助您入门。确保在 logstash 之后启动创建日志的容器。

也许阅读 grok documentation 了解更多信息。