使用 kafka producer 作为 log appender
Use kafka producer as log appender
我已经按照基本的 kafka 生产者文档实现了一个带有 kafka 生产者的日志追加器。我的配置如下所示,我使用 KafkaProducer 并使用 send() 将每个日志发送到 kafka。就我而言,我无法使用 KafkaAppender,因为我们不支持 slf4j 或 log4j。
如何批处理这些日志以及如何优化以下配置以处理大量日志。
Properties props = new Properties();
props.put("bootstrap.servers", "ip:9092");
props.put("acks", "all");
props.put("retries", 0);
props.put("batch.size", 16384);
props.put("linger.ms", 1);
props.put("buffer.memory", 33554432);
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
增加linger.ms
配置。此配置表示 "send messages after this timeout even if the batch is not yet full"。在您的情况下,您的生产者每毫秒刷新一次数据,这就是为什么您没有注意到任何 "batching".
我已经按照基本的 kafka 生产者文档实现了一个带有 kafka 生产者的日志追加器。我的配置如下所示,我使用 KafkaProducer 并使用 send() 将每个日志发送到 kafka。就我而言,我无法使用 KafkaAppender,因为我们不支持 slf4j 或 log4j。
如何批处理这些日志以及如何优化以下配置以处理大量日志。
Properties props = new Properties();
props.put("bootstrap.servers", "ip:9092");
props.put("acks", "all");
props.put("retries", 0);
props.put("batch.size", 16384);
props.put("linger.ms", 1);
props.put("buffer.memory", 33554432);
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
增加linger.ms
配置。此配置表示 "send messages after this timeout even if the batch is not yet full"。在您的情况下,您的生产者每毫秒刷新一次数据,这就是为什么您没有注意到任何 "batching".