将 spring 引导日志直接发送到没有文件的 logstash
Send spring boot logs directly to logstash with no file
所以,我正在使用 kubernetes 和 spring 引导构建一个完整的云解决方案。
我的 spring 引导应用程序已部署到容器并直接登录到控制台。
由于容器是临时性的,我想将日志也发送到远程 logstash 服务器,以便它们可以被处理并发送到 elastic。
通常我会在托管我的应用程序的服务器上安装一个 filebeat,我可以,但是没有任何内置方法可以让我避免在发送日志之前将日志写入文件吗?
目前我正在使用 log4j,但我发现切换到另一个记录器没有问题,只要它具有 "logbackappender"。
您可以尝试在 resources
文件夹中添加 logback.xml
:
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE configuration>
<configuration scan="true">
<include resource="org/springframework/boot/logging/logback/base.xml"/>
<appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
<param name="Encoding" value="UTF-8"/>
<remoteHost>localhost</remoteHost>
<port>5000</port>
<encoder class="net.logstash.logback.encoder.LogstashEncoder">
<customFields>{"app_name":"YourApp", "app_port": "YourPort"}</customFields>
</encoder>
</appender>
<root level="INFO">
<appender-ref ref="logstash"/>
</root>
</configuration>
然后添加 logstash encoder
依赖项:
pom.xml
<dependency>
<groupId>net.logstash.logback</groupId>
<artifactId>logstash-logback-encoder</artifactId>
<version>4.11</version>
</dependency>
logstash.conf
input {
udp {
port => "5000"
type => syslog
codec => json
}
tcp {
port => "5000"
type => syslog
codec => json_lines
}
http {
port => "5001"
codec => "json"
}
}
filter {
if [type] == "syslog" {
mutate {
add_field => { "instance_name" => "%{app_name}-%{host}:%{app_port}" }
}
}
}
output {
elasticsearch {
hosts => ["${ELASTICSEARCH_HOST}:${ELASTICSEARCH_PORT}"]
index => "logs-%{+YYYY.MM.dd}"
}
}
我刚刚在 my repository 中创建了一个完整的工作示例
希望对某人有所帮助
所以,我正在使用 kubernetes 和 spring 引导构建一个完整的云解决方案。
我的 spring 引导应用程序已部署到容器并直接登录到控制台。 由于容器是临时性的,我想将日志也发送到远程 logstash 服务器,以便它们可以被处理并发送到 elastic。
通常我会在托管我的应用程序的服务器上安装一个 filebeat,我可以,但是没有任何内置方法可以让我避免在发送日志之前将日志写入文件吗?
目前我正在使用 log4j,但我发现切换到另一个记录器没有问题,只要它具有 "logbackappender"。
您可以尝试在 resources
文件夹中添加 logback.xml
:
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE configuration>
<configuration scan="true">
<include resource="org/springframework/boot/logging/logback/base.xml"/>
<appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
<param name="Encoding" value="UTF-8"/>
<remoteHost>localhost</remoteHost>
<port>5000</port>
<encoder class="net.logstash.logback.encoder.LogstashEncoder">
<customFields>{"app_name":"YourApp", "app_port": "YourPort"}</customFields>
</encoder>
</appender>
<root level="INFO">
<appender-ref ref="logstash"/>
</root>
</configuration>
然后添加 logstash encoder
依赖项:
pom.xml
<dependency>
<groupId>net.logstash.logback</groupId>
<artifactId>logstash-logback-encoder</artifactId>
<version>4.11</version>
</dependency>
logstash.conf
input {
udp {
port => "5000"
type => syslog
codec => json
}
tcp {
port => "5000"
type => syslog
codec => json_lines
}
http {
port => "5001"
codec => "json"
}
}
filter {
if [type] == "syslog" {
mutate {
add_field => { "instance_name" => "%{app_name}-%{host}:%{app_port}" }
}
}
}
output {
elasticsearch {
hosts => ["${ELASTICSEARCH_HOST}:${ELASTICSEARCH_PORT}"]
index => "logs-%{+YYYY.MM.dd}"
}
}
我刚刚在 my repository 中创建了一个完整的工作示例 希望对某人有所帮助