databricks 从 s3 存储桶路径参数加载文件
databricks load file from s3 bucket path parameter
我是 databricks 或 spark 的新手,正在从 databricks 学习这个演示。我在 AWS 上设置了一个数据块工作区。
下面的代码来自官方demo,运行正常。但是这个 csv 文件在哪里?我想检查文件并了解路径参数的工作原理。
DROP TABLE IF EXISTS diamonds;
CREATE TABLE diamonds
USING csv
OPTIONS (path "/databricks-datasets/Rdatasets/data-001/csv/ggplot2/diamonds.csv",
header "true")
我已经检查了 S3 存储桶上的 databrikcs 位置,但没有找到该文件:
/databricks-datasets
是一个特殊的 mount location that is owned by Databricks and available out of box in all workspaces. You can't browse it via S3 browser, but you can use display(dbutils.fs.ls("/databricks-datasets"))
, or %fs ls /databricks-datasets
, or DBFS File browser (in "Data" tab) to explore its content - see a separate page about it.
我是 databricks 或 spark 的新手,正在从 databricks 学习这个演示。我在 AWS 上设置了一个数据块工作区。 下面的代码来自官方demo,运行正常。但是这个 csv 文件在哪里?我想检查文件并了解路径参数的工作原理。
DROP TABLE IF EXISTS diamonds;
CREATE TABLE diamonds
USING csv
OPTIONS (path "/databricks-datasets/Rdatasets/data-001/csv/ggplot2/diamonds.csv",
header "true")
我已经检查了 S3 存储桶上的 databrikcs 位置,但没有找到该文件:
/databricks-datasets
是一个特殊的 mount location that is owned by Databricks and available out of box in all workspaces. You can't browse it via S3 browser, but you can use display(dbutils.fs.ls("/databricks-datasets"))
, or %fs ls /databricks-datasets
, or DBFS File browser (in "Data" tab) to explore its content - see a separate page about it.