如何从服务器下载网站文件

How to download website files from a server

我在服务器上托管了一个网站 ***.***.**.**

我想下载一个文件夹,public_html,其中包含我的网站文件。

如何完整且有序地下载文件夹及其所有子目录?

我正在使用:

binary
cd public_html
lcd D:\websiteFiles
mget */*

但是,问题是这会将 public_html 及其子文件夹的所有内容转储到 websiteFiles 而没有子文件夹。

如何在下载时维护 public_html 及其所有子文件夹的结构?

我想在 windows 7 cmd 中执行此操作,而无需 ftp 工具(如 fireftp、filzilla....

的帮助

一种替代方法是使用 wget 来执行此操作。只要您的系统上安装了 wget,下面的命令就可以工作:

wget --mirror -p --convert-links -P . http://example.com/public_html

您可能需要在您的请求中添加 Referer header:

--header "Referer: exampe.com"

另一种方法是使用 rsync:

rsync -avz -e ssh <username>@<server>:/public_html/ /www/

您可以在这里wget下载https://www.gnu.org/software/wget/

也可以使用scp命令来实现:

scp -r <username>@<server>:/public_html /www/

您可以安装 cygwin 以便使用 rsyncscp

这是有效的方法:

wget -m ftp://username:password@ip.of.old.host

...