Kafka-connect 登录 docker 容器

Kafka-connect logs in docker container

我有一个 kafka connect jar,它需要 运行 作为 docker 容器。我需要在容器中的日志文件中捕获我所有的连接日志(最好在 directory/file - /etc/kafka/kafka-connect-logs),稍后可以将其推送到本地主机(docker 引擎是 运行ning) 使用 docker 中的卷。当我将 connect-log4j.properties 更改为附加到日志文件时,我发现没有创建任何日志文件。如果我在没有 docker 和 运行 的情况下尝试相同的方法,kafka 通过更改 connect-log4j.properties 将日志写入日志文件来连接到本地 linux VM,它可以完美地工作,但不能从docker。任何建议都会很有帮助。

Docker File

FROM confluent/platform

COPY Test.jar /usr/local/bin/
COPY kafka-connect-docker.sh /usr/local/bin/
COPY connect-distributed.properties /usr/local/bin/
COPY connect-log4j.properties /etc/kafka/connect-log4j.properties

RUN ["apt-get", "update"]
RUN ["apt-get", "install", "-yq", "curl"]
RUN ["chown", "-R", "confluent:confluent", "/usr/local/bin/kafka-connect-docker.sh", "/usr/local/bin/connect-distributed.properties",  "/usr/local/bin/Test.jar"]
RUN ["chmod", "+x", "/usr/local/bin/kafka-connect-docker.sh", "/usr/local/bin/connect-distributed.properties", "/usr/local/bin/Test.jar"]
RUN ["chown", "-R", "confluent:confluent", "/etc/kafka/connect-log4j.properties"]
RUN ["chmod", "777", "/usr/local/bin/kafka-connect-docker.sh", "/etc/kafka/connect-log4j.properties"]

EXPOSE 8083

CMD [ "/usr/local/bin/kafka-connect-docker.sh" ]

connect-log4j.properties

# Root logger option
log4j.rootLogger = INFO, FILE

# Direct log messages to stdout
log4j.appender.FILE=org.apache.log4j.FileAppender
log4j.appender.FILE.File=/etc/kafka/log.out
# Define the layout for file appender
log4j.appender.FILE.layout=org.apache.log4j.PatternLayout
log4j.appender.FILE.layout.conversionPattern=%m%

log4j.logger.org.apache.zookeeper=ERROR
log4j.logger.org.I0Itec.zkclient=ERROR

kafka-connect-docker.sh

#!/bin/bash
export CLASSPATH=/usr/local/bin/Test.jar
exec /usr/bin/connect-distributed /usr/local/bin/connect-distributed.properties

当我使用默认 connect-log4j.properties(将日志附加到控制台)时它工作正常,但无法在 docker 中创建日志文件。此外,没有 docker 的相同进程在本地 VM 中工作正常(创建日志文件)。

讨论结果:

立即在 docker 文件中声明卷并配置日志记录配置以将日志输出直接放置到卷中。在 docker 运行 上(或者您启动容器的任何方式)安装卷,您应该没问题。