从出现在 azure blob 中的 .csv 文件推断架构并使用 Azure 自动生成 DDL 脚本 SQL
Infer Schema from .csv file appear in azure blob and generaate DDL script automatically using Azure SQL
每次 .csv 文件出现在 blob 存储中时,我都必须在 azure sql 上手动从该文件创建 DDL。数据类型基于为该字段指定的值。
该文件有 400 列,手动它会花费很多时间。
可能有人建议如何使用 SP 或脚本自动执行此操作,因此当我们执行脚本时,它将根据 blob 存储中的文件创建 TABLE 或 DDL 脚本。
我不确定是否可行,或者是否有更好的方法来处理这种情况。
感谢您的宝贵建议。
非常感谢
这可以通过多种方式实现。正如您提到的自动化,您也可以使用 Azure 函数。
首先创建一个从 blob 存储中读取 csv 文件的函数:
然后添加生成DDL语句的代码:
Uploading and Importing CSV File to SQL Server
当新文件添加到 blob 存储时,可以安排 Azure 功能或运行。
如果这是一天一次的要求并且也可以手动完成,我们可以从 blob 下载文件并使用 SSMS 中可用的 'Import Flat File' 功能,我们可以在其中指定 csv 文件和它根据现有列值创建架构。
每次 .csv 文件出现在 blob 存储中时,我都必须在 azure sql 上手动从该文件创建 DDL。数据类型基于为该字段指定的值。
该文件有 400 列,手动它会花费很多时间。
可能有人建议如何使用 SP 或脚本自动执行此操作,因此当我们执行脚本时,它将根据 blob 存储中的文件创建 TABLE 或 DDL 脚本。
我不确定是否可行,或者是否有更好的方法来处理这种情况。
感谢您的宝贵建议。
非常感谢
这可以通过多种方式实现。正如您提到的自动化,您也可以使用 Azure 函数。
首先创建一个从 blob 存储中读取 csv 文件的函数:
然后添加生成DDL语句的代码:
Uploading and Importing CSV File to SQL Server
当新文件添加到 blob 存储时,可以安排 Azure 功能或运行。
如果这是一天一次的要求并且也可以手动完成,我们可以从 blob 下载文件并使用 SSMS 中可用的 'Import Flat File' 功能,我们可以在其中指定 csv 文件和它根据现有列值创建架构。