如何将流式数据保存到 Azure 数据湖?
How to save streaming data to Azure data lake?
我正在使用 Apache flink 进行流式处理。我正在通过 flink 从 Apache Kafka 获取数据作为流,并进行一些处理并将结果流保存在 Azure Data lake.Is flink 中有任何可用的连接器可以转储Azure 数据湖中的流数据?
Flink 支持所有实现 org.apache.hadoop.fs.FileSystem
的文件系统,如下所述:https://ci.apache.org/projects/flink/flink-docs-release-0.8/example_connectors.html。
因此,您应该能够将其设置为将数据输出到 Azure Data Lake Store。这是一篇介绍如何将 Hadoop 连接到 Azure Data Lake Store 的博客。理论上相同的方法应该适用于 Flink。 https://medium.com/azure-data-lake/connecting-your-own-hadoop-or-spark-to-azure-data-lake-store-93d426d6a5f4
我正在使用 Apache flink 进行流式处理。我正在通过 flink 从 Apache Kafka 获取数据作为流,并进行一些处理并将结果流保存在 Azure Data lake.Is flink 中有任何可用的连接器可以转储Azure 数据湖中的流数据?
Flink 支持所有实现 org.apache.hadoop.fs.FileSystem
的文件系统,如下所述:https://ci.apache.org/projects/flink/flink-docs-release-0.8/example_connectors.html。
因此,您应该能够将其设置为将数据输出到 Azure Data Lake Store。这是一篇介绍如何将 Hadoop 连接到 Azure Data Lake Store 的博客。理论上相同的方法应该适用于 Flink。 https://medium.com/azure-data-lake/connecting-your-own-hadoop-or-spark-to-azure-data-lake-store-93d426d6a5f4