无法在 Azure 中使用 pyspark 访问 table
Cannot access to the table with pyspark in azure
我在 azure synaps 中创建了一个带有 table 的数据库,它是示例 azure 数据的外部 table。
我 运行 下面的代码通过 pysparktable 访问这个 table 中的数据
df = spark.sql("select * FROM greentaxidb.dbo.taxitable")
当我 运行 上面的代码时,我得到:
pyspark.sql.utils.AnalysisException: The namespace in session catalog must have exactly one name part: greentaxidb.dbo.taxitable
使用 saveAsTable 将数据加载到 dataframe 到 运行 pyspark notebook 中。
%%pyspark
df = spark.read.load('abfss://<container-name>@<storage-account-name>.dfs.core.windows.net/<filename>', format='parquet')
df.write.mode("overwrite").saveAsTable("testdb.test1")
--
%%pyspark
df = spark.sql("select * from testdb.test1")
display(df)
我在 azure synaps 中创建了一个带有 table 的数据库,它是示例 azure 数据的外部 table。
我 运行 下面的代码通过 pysparktable 访问这个 table 中的数据
df = spark.sql("select * FROM greentaxidb.dbo.taxitable")
当我 运行 上面的代码时,我得到:
pyspark.sql.utils.AnalysisException: The namespace in session catalog must have exactly one name part: greentaxidb.dbo.taxitable
使用 saveAsTable 将数据加载到 dataframe 到 运行 pyspark notebook 中。
%%pyspark
df = spark.read.load('abfss://<container-name>@<storage-account-name>.dfs.core.windows.net/<filename>', format='parquet')
df.write.mode("overwrite").saveAsTable("testdb.test1")
--
%%pyspark
df = spark.sql("select * from testdb.test1")
display(df)