Flink 映射流 csv 文件到 Tuple

Flink map stream csv file into Tuple

我正在尝试将 Flink 已使用并由 Kafka 生成的 CSV 文件映射到 Tuple4。我的 CSV 文件有 4 列,我想将每一行映射到一个 Tuple4 中。问题是我不知道如何实现 map() 和 csv2Tuple 函数。

这是我卡住的地方:

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

ParameterTool parameterTool = ParameterTool.fromArgs(ARGS);

DataStreamSource<String> myConsumer = env.addSource(new FlinkKafkaConsumer082<>(parameterTool.getRequired("topic"),
            new SimpleStringSchema(), parameterTool.getProperties()));

DataStream<Tuple4<Integer, Integer, Integer, Integer>> streamTuple = myConsumer.map(new csv2Tuple());
public static class csv2Tuple implements MapFunction<...> {public void map(){...}}

我还想将元组中的项目从字符串解析为整数。

假设您将 csv 文件的每一行生成为 Kafka 消息并使用 Flink Kafka 连接器使用它,您只需将每个使用的消息与 , 分开(因为它是一个 csv 文件).

DataStream<Tuple4<Integer, Integer, Integer, Integer,>> streamTuple = myConsumer.map(new MapFunction<String, Tuple4<Integer, Integer, Integer, Integer>>() {
            @Override
            public Tuple4<Integer, Integer, Integer, Integer> map(String str) throws Exception {
                String[] temp = str.split(",");
                return new Tuple4<>(
                        Integer.parseInt(temp[0]),
                        Integer.parseInt(temp[1]),
                        Integer.parseInt(temp[2]),
                        Integer.parseInt(temp[3])
                );

            }
        });