尝试从网站下载数据集
trying to download a dataset from a website
我正在尝试从网站下载数据集,但我无法下载整个文件夹。我必须单独下载每个文件,这需要很多时间。请问有没有办法一次性下载整个文件夹??
bash 中的这两个循环 运行 应该这样做:
for S in S{001..109}; do
mkdir ${S}
cd ${S}
for R in R{01..14}; do
file="http://www.physionet.org/pn4/eegmmidb/${S}/${S}${R}.edf"
wget "$file"
wget "${file}.event"
done
cd ..
done
使用带有 -r 开关的 wget 来打开镜像。
此命令将执行您想要的操作:
wget --no-parent -r http://www.physionet.org/pn4/eegmmidb/
它将生成该目录下所有内容的镜像副本。
我正在尝试从网站下载数据集,但我无法下载整个文件夹。我必须单独下载每个文件,这需要很多时间。请问有没有办法一次性下载整个文件夹??
bash 中的这两个循环 运行 应该这样做:
for S in S{001..109}; do
mkdir ${S}
cd ${S}
for R in R{01..14}; do
file="http://www.physionet.org/pn4/eegmmidb/${S}/${S}${R}.edf"
wget "$file"
wget "${file}.event"
done
cd ..
done
使用带有 -r 开关的 wget 来打开镜像。
此命令将执行您想要的操作:
wget --no-parent -r http://www.physionet.org/pn4/eegmmidb/
它将生成该目录下所有内容的镜像副本。