如何下载网站(http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/)及所有子目录的内容
How to download the contents of website (http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/) and all sub-directories
我想从大约URL下载内容(目录)和子目录。在 Windows 或 Linux(命令行)中是否有一种简单的方法可以做到这一点?
wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains archive.ubuntu.com \
--no-parent \
http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/
选项是:
--递归:下载整个网站。
--domains website.org: 不要点击 ubuntu.com.
之外的链接
--no-parent:不要访问目录图像之外的链接。
--page-requisites: 获取构成页面的所有元素(图像,CSS 等等)。
--convert-links:转换链接,使其在本地离线工作。
--restrict-file-names=windows: 修改文件名以便它们也能在 Windows 中工作。
--no-clobber:不覆盖任何现有文件(在下载中断和恢复时使用)。
我想从大约URL下载内容(目录)和子目录。在 Windows 或 Linux(命令行)中是否有一种简单的方法可以做到这一点?
wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains archive.ubuntu.com \
--no-parent \
http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/current/images/
选项是:
--递归:下载整个网站。
--domains website.org: 不要点击 ubuntu.com.
之外的链接--no-parent:不要访问目录图像之外的链接。
--page-requisites: 获取构成页面的所有元素(图像,CSS 等等)。
--convert-links:转换链接,使其在本地离线工作。
--restrict-file-names=windows: 修改文件名以便它们也能在 Windows 中工作。
--no-clobber:不覆盖任何现有文件(在下载中断和恢复时使用)。