无法通过 KafkaIO in beam 从 kafka 读取
Can't read from kafka by KafkaIO in beam
我在 Apchea Beam 中编写了一个非常简单的管道,如下所示,以从我在 Confluent Cloud 上的 kafka 集群读取数据,如下所示:
Pipeline pipeline = Pipeline.create(options);
Map<String, Object> propertyBuilder = new HashMap();
propertyBuilder.put("ssl.endpoint.identification.algorithm", "https");
propertyBuilder.put("sasl.mechanism","PLAIN");
propertyBuilder.put("request.timeout.ms","20000");
propertyBuilder.put("retry.backoff.ms","500");
pipeline
.apply(KafkaIO.<byte[], byte[]>readBytes()
.withBootstrapServers("pkc-epgnk.us-central1.gcp.confluent.cloud:9092")
.withTopic("gcp-ingestion-1")
.withKeyDeserializer(ByteArrayDeserializer.class)
.withValueDeserializer(ByteArrayDeserializer.class)
.updateConsumerProperties(propertyBuilder)
.withoutMetadata() // PCollection<KV<Long, String>>
) .apply(Values.<byte[]>create());
但是,当运行使用上面的代码从我的 kafka 集群读取数据时,我得到了低于预期的结果
我运行上面直接java 运行ner,我用的是beam 2.8,
我可以读取消息并向我的 kafka 融合集群生成消息,但不能通过上面的代码。
如果您跟踪堆栈跟踪,就会发现代码试图将超时配置 属性 转换为 Integer
:https://github.com/apache/beam/blob/2e759fecf63d62d110f29265f9438128e3bdc8ab/sdks/java/io/kafka/src/main/java/org/apache/beam/sdk/io/kafka/KafkaUnboundedReader.java#L112
但是它得到的是一个字符串。我的猜测是,这是因为您在此处将其设置为字符串:propertyBuilder.put("request.timeout.ms","20000")
。我认为正确的做法是将其设置为 Integer
,例如像 propertyBuilder.put("request.timeout.ms", 20000)
(超时值周围没有引号)。
您也可能对其他配置属性有类似的问题(例如重试退避),您需要仔细检查 属性 类型。
我在 Apchea Beam 中编写了一个非常简单的管道,如下所示,以从我在 Confluent Cloud 上的 kafka 集群读取数据,如下所示:
Pipeline pipeline = Pipeline.create(options);
Map<String, Object> propertyBuilder = new HashMap();
propertyBuilder.put("ssl.endpoint.identification.algorithm", "https");
propertyBuilder.put("sasl.mechanism","PLAIN");
propertyBuilder.put("request.timeout.ms","20000");
propertyBuilder.put("retry.backoff.ms","500");
pipeline
.apply(KafkaIO.<byte[], byte[]>readBytes()
.withBootstrapServers("pkc-epgnk.us-central1.gcp.confluent.cloud:9092")
.withTopic("gcp-ingestion-1")
.withKeyDeserializer(ByteArrayDeserializer.class)
.withValueDeserializer(ByteArrayDeserializer.class)
.updateConsumerProperties(propertyBuilder)
.withoutMetadata() // PCollection<KV<Long, String>>
) .apply(Values.<byte[]>create());
但是,当运行使用上面的代码从我的 kafka 集群读取数据时,我得到了低于预期的结果
我运行上面直接java 运行ner,我用的是beam 2.8,
我可以读取消息并向我的 kafka 融合集群生成消息,但不能通过上面的代码。
如果您跟踪堆栈跟踪,就会发现代码试图将超时配置 属性 转换为 Integer
:https://github.com/apache/beam/blob/2e759fecf63d62d110f29265f9438128e3bdc8ab/sdks/java/io/kafka/src/main/java/org/apache/beam/sdk/io/kafka/KafkaUnboundedReader.java#L112
但是它得到的是一个字符串。我的猜测是,这是因为您在此处将其设置为字符串:propertyBuilder.put("request.timeout.ms","20000")
。我认为正确的做法是将其设置为 Integer
,例如像 propertyBuilder.put("request.timeout.ms", 20000)
(超时值周围没有引号)。
您也可能对其他配置属性有类似的问题(例如重试退避),您需要仔细检查 属性 类型。