将数据从 Azure Synapse Serverless SQL 池批量加载到 Azure 存储或 Databricks Spark 的最佳方式
Best way to bulk load data from Azure Synapse Serverless SQL pools into Azure storage or Databricks Spark
我正在尝试将数据从 Azure Synapse 无服务器 SQL 池批量加载到 Azure 存储或直接加载到 Databricks Spark(使用 JDBC 驱动程序)。假设我们只知道外部 table 名称而不知道下面文件的位置,那么执行此批量加载的最佳方法是什么?
是否有任何元数据查询也可以知道文件的位置?
这些文件已经在 Azure 存储中,因为 Synapse Serverless SQL 没有“数据库中”存储。
假设它是一个外部 table(不是带有 OPENROWSET 的视图),那么 sys.external_tables 有一个包含文件或文件夹路径的位置列。
如果您还不知道它在哪个存储帐户和容器中,您可能需要加入 sys.external_data_sources 以获取该信息。
我正在尝试将数据从 Azure Synapse 无服务器 SQL 池批量加载到 Azure 存储或直接加载到 Databricks Spark(使用 JDBC 驱动程序)。假设我们只知道外部 table 名称而不知道下面文件的位置,那么执行此批量加载的最佳方法是什么? 是否有任何元数据查询也可以知道文件的位置?
这些文件已经在 Azure 存储中,因为 Synapse Serverless SQL 没有“数据库中”存储。
假设它是一个外部 table(不是带有 OPENROWSET 的视图),那么 sys.external_tables 有一个包含文件或文件夹路径的位置列。
如果您还不知道它在哪个存储帐户和容器中,您可能需要加入 sys.external_data_sources 以获取该信息。