Spark Streaming 是否适用于 "cp" 和 "mv"
Is spark streaming works with both "cp" and "mv"
我正在使用 Spark Streaming
我的程序不断地从 hadoop 文件夹中读取流。问题是如果我复制到我的 hadoop 文件夹 (hadoop fs -copyFromLocal) spark 作业开始但如果我移动 (hadoop fs -mv /hadoopsourcePath/* / destinationPath/ ) 它不起作用。
是不是spark streaming的限制?
我还有一个与 Spark Streaming 相关的问题:
Can spark streaming pick specific files
知道了..它适用于 spark 1.5
但它只选择那些时间戳等于当前时间戳的文件。
例如
临时文件夹:文件f.txt(时间戳 t1:文件创建时间)
Spark 输入文件夹:/input
当您执行 mv (hadoop fs -mv /temp/f.txt /input) 时:Spark 不会选择
但是移动后如果你改变被移动文件的时间戳,spark 会选择。
必须检查 spark 的源代码。
我正在使用 Spark Streaming
我的程序不断地从 hadoop 文件夹中读取流。问题是如果我复制到我的 hadoop 文件夹 (hadoop fs -copyFromLocal) spark 作业开始但如果我移动 (hadoop fs -mv /hadoopsourcePath/* / destinationPath/ ) 它不起作用。
是不是spark streaming的限制?
我还有一个与 Spark Streaming 相关的问题: Can spark streaming pick specific files
知道了..它适用于 spark 1.5 但它只选择那些时间戳等于当前时间戳的文件。
例如
临时文件夹:文件f.txt(时间戳 t1:文件创建时间)
Spark 输入文件夹:/input
当您执行 mv (hadoop fs -mv /temp/f.txt /input) 时:Spark 不会选择
但是移动后如果你改变被移动文件的时间戳,spark 会选择。
必须检查 spark 的源代码。