使用参数的 Azure 数据工厂数据流表达式生成器
Azure Data Factory Data flow expression builder using parameters
我试图将管道参数传递给数据流 activity,同时我尝试传递我的 directory/folder 的值。由于 concat('myArchive/', $myFolderDF)
给我错误:Column operands are not allowed in literal expressions
。我尝试使用此 '{$myFolderDF}'
,但仍然出现错误。您能否指导我在数据流 activity.
的表达式中使用参数
JSON:
parameters{
myFolderDF as string
}
source(allowSchemaDrift: true,
validateSchema: false,
ignoreNoFilesFound: false,
format: 'csv',
fileSystem: 'FileSource',
folderPath: (concat('myFileArchive/',$myFolderDF)),
fileName: (concat(lower($myFolderDF),'.csv')),
documentForm: 'documentPerLine') ~> DFSource
DFSource sink(allowSchemaDrift: true,
validateSchema: false,
format: 'csv',
fileSystem: 'FileArchive',
folderPath: (concat('myFileArchive/',$myFolderDF)),
partitionFileNames:[(concat($myFolderDF,toString(currentTimestamp(),'MMddyyyy'),'.csv'))],
umask: 0022,
preCommands: [],
postCommands: [],
skipDuplicateMapInputs: true,
skipDuplicateMapOutputs: true,
saveOrder: 0,
partitionBy('hash', 1)) ~> DFFileArchive
我在触发管道时能够正确获取它运行。请检查以下配置作为示例。
假设这与数据集参数无关并且源数据集没有显式文件路径提供。
数据流配置:
数据流参数: get_dir
通配符路径: concat('my/',$get_dir)
管道参数: pipe_param
分配给数据流参数:
get_dir: @pipeline().parameters.pipe_param
传递动态值:
原始文件位置:source / my / myArchive / mysource (1).csv
参数化:source / concat('my/',$get_dir)
动态值:myArchive/*.csv
我试图将管道参数传递给数据流 activity,同时我尝试传递我的 directory/folder 的值。由于 concat('myArchive/', $myFolderDF)
给我错误:Column operands are not allowed in literal expressions
。我尝试使用此 '{$myFolderDF}'
,但仍然出现错误。您能否指导我在数据流 activity.
JSON:
parameters{
myFolderDF as string
}
source(allowSchemaDrift: true,
validateSchema: false,
ignoreNoFilesFound: false,
format: 'csv',
fileSystem: 'FileSource',
folderPath: (concat('myFileArchive/',$myFolderDF)),
fileName: (concat(lower($myFolderDF),'.csv')),
documentForm: 'documentPerLine') ~> DFSource
DFSource sink(allowSchemaDrift: true,
validateSchema: false,
format: 'csv',
fileSystem: 'FileArchive',
folderPath: (concat('myFileArchive/',$myFolderDF)),
partitionFileNames:[(concat($myFolderDF,toString(currentTimestamp(),'MMddyyyy'),'.csv'))],
umask: 0022,
preCommands: [],
postCommands: [],
skipDuplicateMapInputs: true,
skipDuplicateMapOutputs: true,
saveOrder: 0,
partitionBy('hash', 1)) ~> DFFileArchive
我在触发管道时能够正确获取它运行。请检查以下配置作为示例。
假设这与数据集参数无关并且源数据集没有显式文件路径提供。
数据流配置:
数据流参数: get_dir
通配符路径: concat('my/',$get_dir)
管道参数: pipe_param
分配给数据流参数:
get_dir: @pipeline().parameters.pipe_param
传递动态值:
原始文件位置:source / my / myArchive / mysource (1).csv
参数化:source / concat('my/',$get_dir)
动态值:myArchive/*.csv