Databricks 访问不使用 SPARK sc 的文件

Databricks access to files not using SPARK sc

我成功上传了一个文件到 Databricks。

/FileStore/tables/DEL2018_05.txt

使用 sc.textFile 处理没有问题。

但是,none Databricks notebook 中的其他方法 return 除了 dbutils。我查看了文档,但无法弄清楚。如果我编写一个普通的 Scala 程序来处理文件,事情也能正常进行。

为什么:

val d = new File("/FileStore/tables/")
d.listFiles

return什么都没有?

d: java.io.File = DBFS/FileStore/tables
res51: Array[java.io.File] = null

此外,运行 DataBricks Notebook 中的这个 SCALA:

Source.fromFile("/FileStore/customGerard/ALT2018_01.txt").mkString

returns:

java.io.FileNotFoundException: /FileStore/customGerard/ALT2018_01.txt (No such file or directory)

但是使用 dbutils 我可以观察到文件在那里。在这个时间点是一个很大的谜...

需要/dbfs

val d = new File("/dbfs/FileStore/tables/")

然后就可以了!!!

Databricks 文档不清楚恕我直言。

对于社区版,最好的方法是使用这个命令:

display(dbutils.fs.ls("/FileStore/tables/"))

其中 /FileStore/tables/ 是您的路径