有没有办法使用 cloudwatch 获取超过 60 天的 objects/files 的计数?
Is there a way to get the count of objects/files which are older than 60 days using cloudwatch?
我使用 boto3 客户端 s3 来计算超过 60 天的文件数量,但由于我有 40TB 的数据和 70 万个对象,所以需要一个多小时。有什么办法吗?
s3 = boto3.client('s3')
paginator = s3.get_paginator('list_objects_v2')
pages = paginator.paginate(Bucket='mybucket')
...
....
Is there any way to do this?
是的。由于您没有指定此操作必须是实时的,因此最好的选择是请求 S3 Inventory。这样做的好处是您可以获得比对象的时间戳更多的信息,这对于根据对象的元数据进一步过滤和搜索对象非常有价值。
我使用 boto3 客户端 s3 来计算超过 60 天的文件数量,但由于我有 40TB 的数据和 70 万个对象,所以需要一个多小时。有什么办法吗?
s3 = boto3.client('s3')
paginator = s3.get_paginator('list_objects_v2')
pages = paginator.paginate(Bucket='mybucket')
...
....
Is there any way to do this?
是的。由于您没有指定此操作必须是实时的,因此最好的选择是请求 S3 Inventory。这样做的好处是您可以获得比对象的时间戳更多的信息,这对于根据对象的元数据进一步过滤和搜索对象非常有价值。