如何下载网站(http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/)及所有子目录的内容

How to download the contents of website (http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/) and all sub-directories

我想从大约URL下载内容(目录)和子目录。在 Windows 或 Linux(命令行)中是否有一种简单的方法可以做到这一点?

wget \
     --recursive \
     --no-clobber \
     --page-requisites \
     --html-extension \
     --convert-links \
     --restrict-file-names=windows \
     --domains archive.ubuntu.com \
     --no-parent \
         http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/

选项是:

--递归:下载整个网站。

--domains website.org: 不要点击 ubuntu.com.

之外的链接

--no-parent:不要访问目录图像之外的链接。

--page-requisites: 获取构成页面的所有元素(图像,CSS 等等)。

--convert-links:转换链接,使其在本地离线工作。

--restrict-file-names=windows: 修改文件名以便它们也能在 Windows 中工作。

--no-clobber:不覆盖任何现有文件(在下载中断和恢复时使用)。