cartopy 存储的离线数据的位置
Location of stored offline data for cartopy
cartopy 离线数据存储在哪里?它存储在站点包下的数据文件夹中吗?有没有办法触发所有可用数据的下载?我想将其复制到未连接到互联网的 Linux 机器上。我目前正在使用连接到互联网的 Windows 机器工作,所以我希望从那里下载数据。谢谢。
查看 http://scitools.org.uk/cartopy/docs/latest/cartopy.html 中的配置文档。本质上,数据被下载到该配置中的 data_dir
项。对我来说,它看起来像:
>>> import cartopy.config
>>> cartopy.config['data_dir']
'/home/pelson/.local/share/cartopy'
当然,那可以配置到任何你喜欢的地方。
因为我也在我的组织中部署了 cartopy,所以我们还配置了 cartopy 以集中存储数据。这被放置在由 pre_existing_data_dir
配置项确定的位置。
最后,要批量下载所有数据(几GB),在tools/feature_download.py的cartopy源中有一个脚本。 运行下载所有数据很简单:
$> python tools/feature_download.py
提供完整帮助:
$> python tools/feature_download.py --help
usage: feature_download.py [-h] [--output OUTPUT] [--dry-run] [--ignore-repo-data] GROUP_NAME [GROUP_NAME ...]
Download feature datasets.
positional arguments:
GROUP_NAME Feature group name: cultural-extra, cultural, gshhs, physical
optional arguments:
-h, --help show this help message and exit
--output OUTPUT, -o OUTPUT
save datasets in the specified directory (default: user cache directory)
--dry-run just print the URLs to download
--ignore-repo-data ignore existing repo data when downloading
cartopy 离线数据存储在哪里?它存储在站点包下的数据文件夹中吗?有没有办法触发所有可用数据的下载?我想将其复制到未连接到互联网的 Linux 机器上。我目前正在使用连接到互联网的 Windows 机器工作,所以我希望从那里下载数据。谢谢。
查看 http://scitools.org.uk/cartopy/docs/latest/cartopy.html 中的配置文档。本质上,数据被下载到该配置中的 data_dir
项。对我来说,它看起来像:
>>> import cartopy.config
>>> cartopy.config['data_dir']
'/home/pelson/.local/share/cartopy'
当然,那可以配置到任何你喜欢的地方。
因为我也在我的组织中部署了 cartopy,所以我们还配置了 cartopy 以集中存储数据。这被放置在由 pre_existing_data_dir
配置项确定的位置。
最后,要批量下载所有数据(几GB),在tools/feature_download.py的cartopy源中有一个脚本。 运行下载所有数据很简单:
$> python tools/feature_download.py
提供完整帮助:
$> python tools/feature_download.py --help
usage: feature_download.py [-h] [--output OUTPUT] [--dry-run] [--ignore-repo-data] GROUP_NAME [GROUP_NAME ...]
Download feature datasets.
positional arguments:
GROUP_NAME Feature group name: cultural-extra, cultural, gshhs, physical
optional arguments:
-h, --help show this help message and exit
--output OUTPUT, -o OUTPUT
save datasets in the specified directory (default: user cache directory)
--dry-run just print the URLs to download
--ignore-repo-data ignore existing repo data when downloading