SQL R 中数据块中的雪花查询
SQL Snowflake Queries in databricks in R
有什么方法可以在使用 R databricks 时对 Snowflake 数据库执行 SQL 查询?
谢谢。
您可以使用已作为 Databricks 运行时的一部分提供的 Spark connector for Snowflake - 按照文档中的描述配置它 - 您需要以下信息才能访问数据:
- URL 用于您的 Snowflake 帐户。
- 连接到该帐户的用户的登录名和密码。
- 连接后用于会话的默认数据库和架构。
- 连接后用于会话的默认虚拟仓库。
之后,您将能够使用标准 Spark API 访问 Snowflake 中的数据,如下所示:
snow.df.sparkr <- SparkR::read.df(
source = "snowflake",
sfUrl = "<snowflake-url>",
sfUser = user,
sfPassword = password,
sfDatabase = "<snowflake-database>",
sfSchema = "<snowflake-schema>",
sfWarehouse = "<snowflake-cluster>",
dbtable = "iris"
)
Databrick's documentation on Snowflake 包括不同语言的完整笔记本,包括 R。
谢谢 Alexa,这正是我要找的:
snow.df.sparkr <- SparkR::read.df(
source = "snowflake",
sfUrl = "<snowflake-url>",
sfUser = user,
sfPassword = password,
sfDatabase = "<snowflake-database>",
sfSchema = "<snowflake-schema>",
sfWarehouse = "<snowflake-cluster>",
query= "select * from iris" ##query specification
)
有什么方法可以在使用 R databricks 时对 Snowflake 数据库执行 SQL 查询?
谢谢。
您可以使用已作为 Databricks 运行时的一部分提供的 Spark connector for Snowflake - 按照文档中的描述配置它 - 您需要以下信息才能访问数据:
- URL 用于您的 Snowflake 帐户。
- 连接到该帐户的用户的登录名和密码。
- 连接后用于会话的默认数据库和架构。
- 连接后用于会话的默认虚拟仓库。
之后,您将能够使用标准 Spark API 访问 Snowflake 中的数据,如下所示:
snow.df.sparkr <- SparkR::read.df(
source = "snowflake",
sfUrl = "<snowflake-url>",
sfUser = user,
sfPassword = password,
sfDatabase = "<snowflake-database>",
sfSchema = "<snowflake-schema>",
sfWarehouse = "<snowflake-cluster>",
dbtable = "iris"
)
Databrick's documentation on Snowflake 包括不同语言的完整笔记本,包括 R。
谢谢 Alexa,这正是我要找的:
snow.df.sparkr <- SparkR::read.df(
source = "snowflake",
sfUrl = "<snowflake-url>",
sfUser = user,
sfPassword = password,
sfDatabase = "<snowflake-database>",
sfSchema = "<snowflake-schema>",
sfWarehouse = "<snowflake-cluster>",
query= "select * from iris" ##query specification
)