2017-04-12 147 views
0

我正在使用Apache flink进行流式处理。我正在通过flink从Apache Kafka作为流获取数据,并做一些处理并将结果流保存在Azure数据湖中。是否存在flink中的任何可用连接器以便在Azure中转储流数据数据湖?如何将流数据保存到Azure数据湖?

回答

1

Flink支持所有实现org.apache.hadoop.fs.FileSystem的文件系统,如下所示:https://ci.apache.org/projects/flink/flink-docs-release-0.8/example_connectors.html

因此,您应该能够将其设置为将数据输出到Azure Data Lake Store。这里有一个博客展示了如何将Hadoop连接到Azure Data Lake Store。理论上相同的方法应该适用于Flink。 https://medium.com/azure-data-lake/connecting-your-own-hadoop-or-spark-to-azure-data-lake-store-93d426d6a5f4