管理 Spring 云数据流服务器日志

Managing Spring Cloud Dataflow Server logs

我正在使用 docker 部署 spring 云数据流服务器。我通过部署几个 spring 引导应用程序作为源、处理器和接收器,在数据流服务器内创建了一个数据处理管道。为了访问每个服务的日志,我必须从 docker continer ( bash ) 内部拖尾它,或者我必须将它从 docker 容器复制到本地磁盘。

我想使用 log4j-kafka appender 将这些日志推送到 kafka 以供以后分析。我已经在 spring 云数据流之外的其他服务 运行 这样做了。有没有办法使用 log4j 管理 spring 云数据流中的服务日志 运行?

如果您是 运行 您的 spring 云服务器和容器中的 Kafka,您可以使用 docker link 到 link 这些容器,容器在这些容器中相互通信 例如 $ docker run -d -P --name web --link db training/webapp python app.py 我正在 link 将 Web 应用程序容器连接到数据库容器 检查此 link 以获取更多信息 https://docs.docker.com/engine/userguide/networking/default_network/dockerlinks/#communication-across-links

Spring Cloud Stream 和 Spring Cloud Task 应用程序是独立的 Spring 启动应用程序。此 对添加相关库以一致地将日志从 Spring 引导应用程序发布到 Kafka 有一些见解。

如果您也想将此添加到 OOTB 应用程序,请查看参考指南中描述的patching procedure