Flink 从 Hadoop 读取数据并发布到 Kafka

Flink read data from Hadoop and publish to Kafka

我需要从 HDFS 读取数据并将其发布到 Kafka 主题。因为它们是 DataSet 和 DataStream API 的一部分,是否可以在一个作业中完成我正在寻找的东西?

Flink 的 DataStream API 可以用来读取 HDFS 文件。请参阅 https://ci.apache.org/projects/flink/flink-docs-stable/dev/datastream_api.html#data-sources. Or you can use the file system connector 中的 readfile() 以及 Table 和 SQL API,但它仅支持 CSV。