防止 rclone 将文件重新复制到 AWS S3 Deep Archive
Prevent rclone from re-copying files to AWS S3 Deep Archive
我正在使用 rclone
将一些文件复制到 S3 存储桶(深层存档)。我使用的命令是:
rclone copy --ignore-existing --progress --max-delete 0 "/var/vmail" foo-backups:foo-backups/vmail
这使 rclone 复制我确定已存在于存储桶中的文件。我尝试删除 --ignore-existing
标志(恕我直言,它的名称很糟糕,因为它的作用与您最初期望的完全相反),但我仍然得到相同的行为。
我也尝试添加 --size-only
,但 "bug" 没有得到修复。
如何让 rclone 只复制新文件?
您可以使用 rclone sync
,查看 https://rclone.org/commands/rclone_sync/
Doesn’t transfer unchanged files, testing by size and modification time or MD5SUM. Destination is updated to match source, including deleting files if necessary.
原来是rclone的bug。 https://github.com/rclone/rclone/issues/3834
我正在使用 rclone
将一些文件复制到 S3 存储桶(深层存档)。我使用的命令是:
rclone copy --ignore-existing --progress --max-delete 0 "/var/vmail" foo-backups:foo-backups/vmail
这使 rclone 复制我确定已存在于存储桶中的文件。我尝试删除 --ignore-existing
标志(恕我直言,它的名称很糟糕,因为它的作用与您最初期望的完全相反),但我仍然得到相同的行为。
我也尝试添加 --size-only
,但 "bug" 没有得到修复。
如何让 rclone 只复制新文件?
您可以使用 rclone sync
,查看 https://rclone.org/commands/rclone_sync/
Doesn’t transfer unchanged files, testing by size and modification time or MD5SUM. Destination is updated to match source, including deleting files if necessary.
原来是rclone的bug。 https://github.com/rclone/rclone/issues/3834