如何在内存中的 Kafka Streams 状态存储上启用缓存

How to enable caching on in-memory Kafka Streams state store

我想减少向下游发送的数据数量,并且由于我只关心给定键的最后一个值,所以我正在以这种方式从主题中读取数据:

KTable table = build.table("inputTopic", Materialized.as("myStore"));

为什么?因为在引擎盖下,数据被缓存,如 here 所述,并且仅在 commit.interval.mscache.max.bytes.buffering 时转发 开始。

到目前为止一切顺利,但由于在这种情况下我根本没有利用 RocksDB,所以我想将其替换为内存存储的默认实现。我隐式启用了缓存,以防万一。

Materialized.as(Stores.inMemoryKeyValueStore("myStore")).withCachingEnabled();

不过它不起作用 - 数据没有被缓存,每条记录都被发送到下游。

是否有其他方式启用缓存?或者也许有更好的方法来实现我想要实现的目标?

看来我错了,in-memory 状态存储缓存按预期工作。我将简要展示我是如何测试它的,也许有人会发现它有用。我制作了一个非常基本的 Kafka Streams 应用程序,它只读取抽象为 KTable 的主题。

public class Main {
    public static void main(String[] args) {
        StreamsBuilder builder = new StreamsBuilder();
        Logger logger = LoggerFactory.getLogger(Main.class);

        builder.table("inputTopic", Materialized.as(Stores.inMemoryKeyValueStore("myStore")).withCachingEnabled())
                .toStream()
                .foreach((k, v) -> logger.info("Result: {} - {}", k, v));

        new KafkaStreams(builder.build(), getProperties()).start();
    }

    private static Properties getProperties() {
        Properties properties = new Properties();
        properties.put(APPLICATION_ID_CONFIG, "testApp");
        properties.put(BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
        properties.put(COMMIT_INTERVAL_MS_CONFIG, 10000);
        properties.put(CACHE_MAX_BYTES_BUFFERING_CONFIG, 10 * 1024 * 1024L);
        properties.put(DEFAULT_KEY_SERDE_CLASS_CONFIG, Serdes.String().getClass().getName());
        properties.put(DEFAULT_VALUE_SERDE_CLASS_CONFIG, Serdes.String().getClass().getName());
        return properties;
    }
}

然后我运行来自Kafka的console producer:

/kafka-console-producer.sh --broker-list localhost:9092 --topic inputTopic --property "parse.key=true" --property "key.separator=:"

并发送了几条消息:a:a、a:b、a:c。只有他们的最后一条消息在应用程序中可见,因此缓存按预期工作。

2018-03-06 21:21:57 INFO Main:26 - Result: a - c

我还稍微更改了流以检查 aggregate 方法的缓存。

builder.stream("inputTopic")
        .groupByKey()
        .aggregate(() -> "", (k, v, a) -> a + v, Materialized.as(Stores.inMemoryKeyValueStore("aggregate")))
        .toStream()
        .foreach((k, v) -> logger.info("Result: {} - {}", k, v));

我使用相同的密钥快速连续地发送了几条消息,并且只收到了一个结果,因此数据没有立即发送到下游 - 完全符合预期。