从文件中卷曲一个 URL 列表并使用并行使其更快

Curl a URL list from a file and make it faster with parallel

现在我正在使用以下代码:

while read num;
    do M=$(curl "myurl/$num")
    echo "$M"
done < s.txt

其中 s.txt 包含 url.

的一部分的列表(每行 1 个)

假设 curl 是 运行ning 顺序是否正确? 还是一次 运行 在 thread/jobs/multiple conn 中连接?

我在网上找到了这个:

 parallel -k curl -s "http://example.com/locations/city?limit=100\&offset={}" ::: $(seq 100 100 30000) > out.txt

问题是我的序列来自文件或变量(每行一个元素),我无法根据需要调整它

我还没有完全理解如何将列表传递给并行

我是否应该保存列表中的所有 curl 命令并使用 parallel -a 运行 它?

此致,

parallel -j100 -k curl myurl/{} < s.txt

考虑花一个小时步行穿过 man parallel_tutorial。您的命令行会因此爱上您。