如何从服务器下载网站文件
How to download website files from a server
我在服务器上托管了一个网站 ***.***.**.**
我想下载一个文件夹,public_html
,其中包含我的网站文件。
如何完整且有序地下载文件夹及其所有子目录?
我正在使用:
binary
cd public_html
lcd D:\websiteFiles
mget */*
但是,问题是这会将 public_html
及其子文件夹的所有内容转储到 websiteFiles
而没有子文件夹。
如何在下载时维护 public_html
及其所有子文件夹的结构?
我想在 windows 7 cmd 中执行此操作,而无需 ftp 工具(如 fireftp、filzilla....
的帮助
一种替代方法是使用 wget
来执行此操作。只要您的系统上安装了 wget
,下面的命令就可以工作:
wget --mirror -p --convert-links -P . http://example.com/public_html
您可能需要在您的请求中添加 Referer
header:
--header "Referer: exampe.com"
另一种方法是使用 rsync
:
rsync -avz -e ssh <username>@<server>:/public_html/ /www/
您可以在这里wget
下载https://www.gnu.org/software/wget/
也可以使用scp
命令来实现:
scp -r <username>@<server>:/public_html /www/
您可以安装 cygwin 以便使用 rsync
或 scp
这是有效的方法:
wget -m ftp://username:password@ip.of.old.host
...
我在服务器上托管了一个网站 ***.***.**.**
我想下载一个文件夹,public_html
,其中包含我的网站文件。
如何完整且有序地下载文件夹及其所有子目录?
我正在使用:
binary
cd public_html
lcd D:\websiteFiles
mget */*
但是,问题是这会将 public_html
及其子文件夹的所有内容转储到 websiteFiles
而没有子文件夹。
如何在下载时维护 public_html
及其所有子文件夹的结构?
我想在 windows 7 cmd 中执行此操作,而无需 ftp 工具(如 fireftp、filzilla....
的帮助一种替代方法是使用 wget
来执行此操作。只要您的系统上安装了 wget
,下面的命令就可以工作:
wget --mirror -p --convert-links -P . http://example.com/public_html
您可能需要在您的请求中添加 Referer
header:
--header "Referer: exampe.com"
另一种方法是使用 rsync
:
rsync -avz -e ssh <username>@<server>:/public_html/ /www/
您可以在这里wget
下载https://www.gnu.org/software/wget/
也可以使用scp
命令来实现:
scp -r <username>@<server>:/public_html /www/
您可以安装 cygwin 以便使用 rsync
或 scp
这是有效的方法:
wget -m ftp://username:password@ip.of.old.host
...