AWS Aurora:使用预制 SQL 语句批量插入记录
AWS Aurora: bulk upsert of records using pre-formed SQL Statements
有没有一种方法可以使用 Python 使用“预制”Postgresql 语句将一批 insert/update 记录写入 AWS Aurora?
我的场景:我有一个 AWS lambda,它通过 Kinesis 从 DynamoDB 接收数据更改 (insert/modify/remove),然后需要将它们应用到 AWS Aurora 中的一个 Postgres 实例。
我在 Internet 搜索中设法找到的是通过 RDS 数据服务客户端中的“batch_execute_statement”命令使用 Boto3,其中需要为每个人填充参数列表记录.
如果可能,我想要一种机制,我可以在批处理操作中向数据库提供许多“预制”INSERT/UPDATE/DELETE Postgresql 语句。
非常感谢您的帮助。
我使用了 Psycopg2 和 SqlAlchemy 引擎的原始连接(而不是 Boto3)并循环遍历了我的 SQL 语句列表,依次执行每个语句。
有没有一种方法可以使用 Python 使用“预制”Postgresql 语句将一批 insert/update 记录写入 AWS Aurora?
我的场景:我有一个 AWS lambda,它通过 Kinesis 从 DynamoDB 接收数据更改 (insert/modify/remove),然后需要将它们应用到 AWS Aurora 中的一个 Postgres 实例。
我在 Internet 搜索中设法找到的是通过 RDS 数据服务客户端中的“batch_execute_statement”命令使用 Boto3,其中需要为每个人填充参数列表记录.
如果可能,我想要一种机制,我可以在批处理操作中向数据库提供许多“预制”INSERT/UPDATE/DELETE Postgresql 语句。
非常感谢您的帮助。
我使用了 Psycopg2 和 SqlAlchemy 引擎的原始连接(而不是 Boto3)并循环遍历了我的 SQL 语句列表,依次执行每个语句。