Databricks - 下载一个 dbfs:/FileStore 文件到我的本地机器
Databricks - Download a dbfs:/FileStore file to my Local Machine
通常我使用下面的 URL 将文件从 Databricks DBFS FileStore 下载到我的本地计算机。
*https://<MY_DATABRICKS_INSTANCE_NAME>/fileStore/?o=<NUMBER_FROM_ORIGINAL_URL>*
但是,这次没有下载文件,而是 URL 将我带到了 Databricks 主页。
有人对我如何从 DBFS 下载文件到本地有什么建议吗?或者应该如何修复 URL 以使其正常工作?
如有任何建议,我们将不胜感激!
八打灵再也
Method1: Using Databricks portal GUI, you can download full results (max 1 millions rows).
Method2: Using Databricks CLI
要下载完整结果,请先将文件保存到 dbfs,然后使用 Databricks cli 将文件复制到本地计算机,如下所示。
dbfs cp "dbfs:/FileStore/tables/my_my.csv" "A:\AzureAnalytics"
您可以使用 DBFS CLI、DBFS API、Databricks 文件系统实用程序 (dbutils.fs)、Spark APIs 和本地文件 API 访问 DBFS 对象s.
在 Spark 集群中,您可以使用 Databricks 文件系统实用程序、Spark APIs 或本地文件 APIs 访问 DBFS 对象。
在本地计算机上,您使用 Databricks CLI 或 DBFS API.
访问 DBFS 对象
参考: Azure Databricks – Access DBFS
DBFS 命令行界面 (CLI) 使用 DBFS API 向 DBFS 公开一个易于使用的命令行界面。使用此客户端,您可以使用类似于在 Unix 命令行上使用的命令与 DBFS 交互。例如:
# List files in DBFS
dbfs ls
# Put local file ./apple.txt to dbfs:/apple.txt
dbfs cp ./apple.txt dbfs:/apple.txt
# Get dbfs:/apple.txt and save to local file ./apple.txt
dbfs cp dbfs:/apple.txt ./apple.txt
# Recursively put local dir ./banana to dbfs:/banana
dbfs cp -r ./banana dbfs:/banana
参考: Installing and configuring Azure Databricks CLI
Method3: Using third-party tool named DBFS Explorer
DBFS Explorer 是作为一种将文件上传和下载到 Databricks 文件系统 (DBFS) 的快速方法而创建的。这将适用于 Databricks 的 AWS 和 Azure 实例。您需要在 Web 界面中创建不记名令牌才能连接。
通常我使用下面的 URL 将文件从 Databricks DBFS FileStore 下载到我的本地计算机。
*https://<MY_DATABRICKS_INSTANCE_NAME>/fileStore/?o=<NUMBER_FROM_ORIGINAL_URL>*
但是,这次没有下载文件,而是 URL 将我带到了 Databricks 主页。 有人对我如何从 DBFS 下载文件到本地有什么建议吗?或者应该如何修复 URL 以使其正常工作?
如有任何建议,我们将不胜感激!
八打灵再也
Method1: Using Databricks portal GUI, you can download full results (max 1 millions rows).
Method2: Using Databricks CLI
要下载完整结果,请先将文件保存到 dbfs,然后使用 Databricks cli 将文件复制到本地计算机,如下所示。
dbfs cp "dbfs:/FileStore/tables/my_my.csv" "A:\AzureAnalytics"
您可以使用 DBFS CLI、DBFS API、Databricks 文件系统实用程序 (dbutils.fs)、Spark APIs 和本地文件 API 访问 DBFS 对象s.
在 Spark 集群中,您可以使用 Databricks 文件系统实用程序、Spark APIs 或本地文件 APIs 访问 DBFS 对象。
在本地计算机上,您使用 Databricks CLI 或 DBFS API.
访问 DBFS 对象参考: Azure Databricks – Access DBFS
DBFS 命令行界面 (CLI) 使用 DBFS API 向 DBFS 公开一个易于使用的命令行界面。使用此客户端,您可以使用类似于在 Unix 命令行上使用的命令与 DBFS 交互。例如:
# List files in DBFS
dbfs ls
# Put local file ./apple.txt to dbfs:/apple.txt
dbfs cp ./apple.txt dbfs:/apple.txt
# Get dbfs:/apple.txt and save to local file ./apple.txt
dbfs cp dbfs:/apple.txt ./apple.txt
# Recursively put local dir ./banana to dbfs:/banana
dbfs cp -r ./banana dbfs:/banana
参考: Installing and configuring Azure Databricks CLI
Method3: Using third-party tool named DBFS Explorer
DBFS Explorer 是作为一种将文件上传和下载到 Databricks 文件系统 (DBFS) 的快速方法而创建的。这将适用于 Databricks 的 AWS 和 Azure 实例。您需要在 Web 界面中创建不记名令牌才能连接。