pyspark 列出 s3 存储桶中文件夹的子文件夹

pyspark List subfolder of a folder in s3 bucket

我有一个 s3 存储桶,我在其中存储要由我的 pyspark 代码处理的数据文件。 我要访问的文件夹是:

s3a://bucket_name/data/

此文件夹包含文件夹。我的目标是访问此目录中最后添加的文件夹的内容。 由于某些原因,我不想使用 boto。 有什么方法可以访问文件夹列表,这样我就可以选择我想访问的文件夹。 如果我指定文件夹,我可以访问文件,但我想使其动态化。

我建议使用 s3fs,它是 boto3 上的文件系统样式包装器。文档在这里:http://s3fs.readthedocs.io/en/latest/

这是您关心的部分(您可能需要传入或以其他方式配置您的 AWS 凭证):

import s3fs
fs = s3fs.S3FileSystem(anon=True)
fs.ls('my-bucket')