在使用 Blob 的 ADF 触发器中需要帮助
need help in ADF trigger with Blob
需要在 Blob 中接收到文件时触发。
但复杂的部分是有 2 个文件,A.JSON 和 B.JSON,它们将在 2 个不同的位置生成。
所以当A.JSON在location 1产生时,Pipeline A应该触发,当B.JSON在Loation 2产生时,Pipeline A应该触发。我已经在 1 个位置使用 1 个文件完成了 blob 触发器,但不确定当 2 个不同的文件出现在 2 个不同的位置时该怎么做。
您可以通过三种方式执行此操作。
直接使用带条件的 ADF 来评估触发的文件是否来自您需要的特定路径。
为您希望监视创建的 blob 的每个不同路径设置逻辑应用程序。
添加为不同路径配置的两个不同触发器(最佳选择)
First method: (This has an overhead of running every time a file is triggered in container.)
编辑触发器以查看整个存储或所有容器。 Select 文件类型:JSON 你的情况。
为动态容器和文件名参数化源数据集
在管道中创建参数,一个用于引用要监视的文件夹路径,一个用于保存触发的文件名。
其中 receive_trigger_files
将动态分配触发的文件名。
我在这里展示了一个示例,其中查找 activity 将评估路径并在触发文件路径和我们的监控路径匹配时向前执行相应的活动。
另一个为path2
例如获取元数据 activity 或您场景中的任何一个
让我们手动调试和检查 exercise01.json
文件 path2
您也可以类似地使用 IF 条件 activity,但需要多个步骤或使用 activity 状态进行监控将不清楚。
Second method: Setup a blob triggered logic app
运行 ADF 管道使用 Create a pipeline run
操作,并设置或传递适当的参数,如前所述。
Third method: Add 2 triggers each for a path you wish to monitor blob creation.
需要在 Blob 中接收到文件时触发。 但复杂的部分是有 2 个文件,A.JSON 和 B.JSON,它们将在 2 个不同的位置生成。
所以当A.JSON在location 1产生时,Pipeline A应该触发,当B.JSON在Loation 2产生时,Pipeline A应该触发。我已经在 1 个位置使用 1 个文件完成了 blob 触发器,但不确定当 2 个不同的文件出现在 2 个不同的位置时该怎么做。
您可以通过三种方式执行此操作。
直接使用带条件的 ADF 来评估触发的文件是否来自您需要的特定路径。
为您希望监视创建的 blob 的每个不同路径设置逻辑应用程序。
添加为不同路径配置的两个不同触发器(最佳选择)
First method: (This has an overhead of running every time a file is triggered in container.)
编辑触发器以查看整个存储或所有容器。 Select 文件类型:JSON 你的情况。
为动态容器和文件名参数化源数据集
在管道中创建参数,一个用于引用要监视的文件夹路径,一个用于保存触发的文件名。
其中 receive_trigger_files
将动态分配触发的文件名。
我在这里展示了一个示例,其中查找 activity 将评估路径并在触发文件路径和我们的监控路径匹配时向前执行相应的活动。
另一个为path2
例如获取元数据 activity 或您场景中的任何一个
让我们手动调试和检查 exercise01.json
文件 path2
您也可以类似地使用 IF 条件 activity,但需要多个步骤或使用 activity 状态进行监控将不清楚。
Second method: Setup a blob triggered logic app
运行 ADF 管道使用 Create a pipeline run
操作,并设置或传递适当的参数,如前所述。
Third method: Add 2 triggers each for a path you wish to monitor blob creation.