Spring Cloud DataFlow 在 AWS S3 Bucket 源中的新文件后使用启动任务
Spring Cloud DataFlow using launch task after new file in AWS S3 Bucket source
我正在尝试创建一个由 AWS S3 中的新文件启动的批处理。
所以流程是:
1 - A new file is uploaded to AWS S3 Bucket
2 - SCDF detects
3 - SCDF launch the task (Spring Batch application)
4 - Spring Batch application process the file and stores in a DB.
与此类似,但使用 S3 存储桶:
https://dataflow.spring.io/docs/recipes/batch/sftp-to-jdbc/
可能是对概念的误解,但在 SFTP 源中我可以设置端口、主机、用户和密码,但在 S3 源中我没有区域和凭据属性。
在哪里设置 AWS 属性?
我正在尝试创建一个由 AWS S3 中的新文件启动的批处理。
所以流程是:
1 - A new file is uploaded to AWS S3 Bucket
2 - SCDF detects
3 - SCDF launch the task (Spring Batch application)
4 - Spring Batch application process the file and stores in a DB.
与此类似,但使用 S3 存储桶: https://dataflow.spring.io/docs/recipes/batch/sftp-to-jdbc/
可能是对概念的误解,但在 SFTP 源中我可以设置端口、主机、用户和密码,但在 S3 源中我没有区域和凭据属性。
在哪里设置 AWS 属性?