Flink 能否将结果写入多个文件(如 Hadoop 的 MultipleOutputFormat)?
Can Flink write results into multiple files (like Hadoop's MultipleOutputFormat)?
我正在使用 Apache Flink 的数据集 API。我想实现一个将多个结果写入不同文件的作业。
我该怎么做?
您可以根据需要向 DataSet
程序添加任意数量的数据接收器。
例如在这样的程序中:
ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
DataSet<Tuple3<String, Long, Long>> data = env.readFromCsv(...);
// apply MapFunction and emit
data.map(new YourMapper()).writeToText("/foo/bar");
// apply FilterFunction and emit
data.filter(new YourFilter()).writeToCsv("/foo/bar2");
您从 CSV 文件中读取了 DataSet
data
。这个data
给后面的两个变换:
- 到
MapFunction
并将其结果写入文本文件。
- 到
FilterFunction
并且未过滤的元组被写入 CSV 文件。
您还可以拥有多个数据源以及分支和合并数据集(使用 union
、join
、coGroup
、cross
或广播集)像。
你可以像这样在 Flink 中使用 HadoopOutputFormat
API:
class IteblogMultipleTextOutputFormat[K, V] extends MultipleTextOutputFormat[K, V] {
override def generateActualKey(key: K, value: V): K =
NullWritable.get().asInstanceOf[K]
override def generateFileNameForKeyValue(key: K, value: V, name: String): String =
key.asInstanceOf[String]
}
我们可以使用 IteblogMultipleTextOutputFormat
如下:
val multipleTextOutputFormat = new IteblogMultipleTextOutputFormat[String, String]()
val jc = new JobConf()
FileOutputFormat.setOutputPath(jc, new Path("hdfs:///user/iteblog/"))
val format = new HadoopOutputFormat[String, String](multipleTextOutputFormat, jc)
val batch = env.fromCollection(List(("A", "1"), ("A", "2"), ("A", "3"),
("B", "1"), ("B", "2"), ("C", "1"), ("D", "2")))
batch.output(format)
我正在使用 Apache Flink 的数据集 API。我想实现一个将多个结果写入不同文件的作业。
我该怎么做?
您可以根据需要向 DataSet
程序添加任意数量的数据接收器。
例如在这样的程序中:
ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
DataSet<Tuple3<String, Long, Long>> data = env.readFromCsv(...);
// apply MapFunction and emit
data.map(new YourMapper()).writeToText("/foo/bar");
// apply FilterFunction and emit
data.filter(new YourFilter()).writeToCsv("/foo/bar2");
您从 CSV 文件中读取了 DataSet
data
。这个data
给后面的两个变换:
- 到
MapFunction
并将其结果写入文本文件。 - 到
FilterFunction
并且未过滤的元组被写入 CSV 文件。
您还可以拥有多个数据源以及分支和合并数据集(使用 union
、join
、coGroup
、cross
或广播集)像。
你可以像这样在 Flink 中使用 HadoopOutputFormat
API:
class IteblogMultipleTextOutputFormat[K, V] extends MultipleTextOutputFormat[K, V] {
override def generateActualKey(key: K, value: V): K =
NullWritable.get().asInstanceOf[K]
override def generateFileNameForKeyValue(key: K, value: V, name: String): String =
key.asInstanceOf[String]
}
我们可以使用 IteblogMultipleTextOutputFormat
如下:
val multipleTextOutputFormat = new IteblogMultipleTextOutputFormat[String, String]()
val jc = new JobConf()
FileOutputFormat.setOutputPath(jc, new Path("hdfs:///user/iteblog/"))
val format = new HadoopOutputFormat[String, String](multipleTextOutputFormat, jc)
val batch = env.fromCollection(List(("A", "1"), ("A", "2"), ("A", "3"),
("B", "1"), ("B", "2"), ("C", "1"), ("D", "2")))
batch.output(format)