无法在 pyspark 中导入 s3fs

cannot import s3fs in pyspark

当我尝试使用以下代码在 pyspark 中导入 s3fs 库时:

import s3fs

我收到以下错误:

An error was encountered: cannot import name 'maybe_sync' from 'fsspec.asyn' (/usr/local/lib/python3.7/site-packages/fsspec/asyn.py) Traceback (most recent call last): File "/usr/local/lib/python3.7/site-packages/s3fs/init.py", line 1, in from .core import S3FileSystem, S3File File "/usr/local/lib/python3.7/site-packages/s3fs/core.py", line 12, in from fsspec.asyn import AsyncFileSystem, sync, sync_wrapper, maybe_sync ImportError: cannot import name 'maybe_sync' from 'fsspec.asyn' (/usr/local/lib/python3.7/site-packages/fsspec/asyn.py)

fsspec包已经安装到我的笔记本中了。当这突然发生时,我实际上已经使用它很长时间了。 我尝试使用谷歌搜索,但找不到此特定错误。 有没有人遇到过这个?如果有,你知道怎么解决吗?

很高兴听到这不仅仅是我。看起来如果你 pip 安装版本 s3fs==0.5.1 和 fsspec==0.8.3,应该会修复它。