为什么生成更多的随机数据要慢得多?
Why is generating a higher amount of random data much slower?
我想生成大量随机数。我编写了以下 bash 命令(请注意,我在这里使用 cat
用于演示目的;在我的实际用例中,我将数字输送到一个过程中):
for i in {1..99999999}; do echo -e "$(cat /dev/urandom | tr -dc '0-9' | fold -w 5 | head -n 1)"; done | cat
数字打印速度非常低。但是,如果我生成的数量较少,速度会快得多:
for i in {1..9999}; do echo -e "$(cat /dev/urandom | tr -dc '0-9' | fold -w 5 | head -n 1)"; done | cat
请注意,唯一的区别是 9999
而不是 99999999
。
这是为什么?数据是否缓冲在某处?有没有办法优化这个,让随机数 piped/streamed 立即变成 cat
?
Why is this?
生成 {1..99999999}
100000000 个参数然后解析它们需要从 bash 分配大量内存。这会严重拖延整个系统。
此外,大块数据从 /dev/urandom
读取,其中约 96% 的数据被 tr -dc '0-9'
过滤掉。这会显着耗尽熵池并使整个系统停止运转。
Is the data buffered somewhere?
每个进程都有自己的缓冲区,所以:
cat /dev/urandom
正在缓冲
tr -dc '0-9'
正在缓冲
fold -w 5
正在缓冲
head -n 1
正在缓冲
- 管道左侧 - shell,有自己的缓冲区
- 右侧 -
| cat
有自己的缓冲区
那是6个缓冲位。即使忽略来自 head -n1
和管道右侧 | cat
的输入缓冲,也有 4 个输出缓冲区。
另外,拯救动物和 stop cat abuse。使用 tr </dev/urandom
,而不是 cat /dev/urandom | tr
。有趣的事实 - tr
不能将文件名作为参数。
Is there a way to optimize this, so that the random numbers are piped/streamed into cat immediately?
删除整个代码。
只根据需要从随机源中获取尽可能少的字节。要生成 32 位数字,您只需要 32 位 - 不再。要生成一个 5 位数字,您只需要 17 位 - 四舍五入到 8 位字节,即只有 3 个字节。 tr -dc '0-9'
是一个很酷的技巧,但绝对不应该在任何实际代码中使用它。
奇怪的是 ,从那里复制代码,您可以:
for ((i=0;i<100000000;++i)); do echo "$((0x$(dd if=/dev/urandom of=/dev/stdout bs=4 count=1 status=none | xxd -p)))"; done | cut -c-5
# cut to take first 5 digits
但这仍然是 令人无法接受的 慢,因为它为每个随机数运行 2 个进程(我认为只取前 5 位数字会产生不好的分布)。
我建议使用 $RANDOM
,在 bash 中可用。如果不是,如果您 真的想要 /dev/urandom
(并且真的知道您为什么想要它),请使用 $SRANDOM
。如果没有,我建议用真正的编程语言编写 /dev/urandom
的随机数生成,例如 C、C++、python、perl、ruby。我相信有人可以把它写成 awk
.
下面看起来不错,但仍然将二进制数据转换为十六进制,只是稍后将它们转换为十进制是 shell 无法处理二进制数据的解决方法:
count=10;
# take count*4 bytes from input
dd if=/dev/urandom of=/dev/stdout bs=4 count=$count status=none |
# Convert bytes to hex 4 bytes at a time
xxd -p -c 4 |
# Convert hex to decimal using GNU awk
awk --non-decimal-data '{printf "%d\n", "0x"[=11=]}'
你为什么要运行循环这个?您只需 运行 一组这些命令即可生成所有内容,例如:
cat /dev/urandom | tr -dc '0-9' | fold -w 5 | head -n 100000000
即只生成一个数字流,而不是单独生成它们。
我赞成为此使用另一种语言的建议,它应该更有效率。例如,在 Python 中,它只是:
from random import randrange
for _ in range(100000000):
print(randrange(100000))
@SamMason 给出了迄今为止最好的 ,因为他完全取消了循环:
cat /dev/urandom | tr -dc '0-9' | fold -w 5 | head -n 100000000
尽管如此,仍有很大的改进空间。首先,tr -dc '0-9'
只使用了来自 /dev/urandom 的大约 4% :-) 其次,根据最终使用这些随机数的方式,获取这些随机数可能会产生一些额外的开销去掉前导零——这样一些数字就不会被解释为八进制。让我提出一个更好的选择,使用 od
命令:
outputFile=/dev/null # For test. Replace with the real file.
count=100000000
od -An -t u2 -w2 /dev/urandom | head -n $count >$outputFile
使用 time
命令进行的快速测试表明这大约比 tr
版本快四倍。而且确实没有必要使用“另一种语言”,因为 od
和 head
都经过了高度优化,并且整个过程都以本机速度运行。
注意: 上述命令将生成 16 位整数,范围从 0 到 65535(含)。如果您需要更大的范围,那么您可以选择 32 位数字,这将为您提供从 0 到 4294967295 的范围:
od -An -t u4 -w4 /dev/urandom | head -n $count >$outputFile
如果需要,最终用户可以使用模除法将它们缩小到所需的大小。
我想生成大量随机数。我编写了以下 bash 命令(请注意,我在这里使用 cat
用于演示目的;在我的实际用例中,我将数字输送到一个过程中):
for i in {1..99999999}; do echo -e "$(cat /dev/urandom | tr -dc '0-9' | fold -w 5 | head -n 1)"; done | cat
数字打印速度非常低。但是,如果我生成的数量较少,速度会快得多:
for i in {1..9999}; do echo -e "$(cat /dev/urandom | tr -dc '0-9' | fold -w 5 | head -n 1)"; done | cat
请注意,唯一的区别是 9999
而不是 99999999
。
这是为什么?数据是否缓冲在某处?有没有办法优化这个,让随机数 piped/streamed 立即变成 cat
?
Why is this?
生成 {1..99999999}
100000000 个参数然后解析它们需要从 bash 分配大量内存。这会严重拖延整个系统。
此外,大块数据从 /dev/urandom
读取,其中约 96% 的数据被 tr -dc '0-9'
过滤掉。这会显着耗尽熵池并使整个系统停止运转。
Is the data buffered somewhere?
每个进程都有自己的缓冲区,所以:
cat /dev/urandom
正在缓冲tr -dc '0-9'
正在缓冲fold -w 5
正在缓冲head -n 1
正在缓冲- 管道左侧 - shell,有自己的缓冲区
- 右侧 -
| cat
有自己的缓冲区
那是6个缓冲位。即使忽略来自 head -n1
和管道右侧 | cat
的输入缓冲,也有 4 个输出缓冲区。
另外,拯救动物和 stop cat abuse。使用 tr </dev/urandom
,而不是 cat /dev/urandom | tr
。有趣的事实 - tr
不能将文件名作为参数。
Is there a way to optimize this, so that the random numbers are piped/streamed into cat immediately?
删除整个代码。
只根据需要从随机源中获取尽可能少的字节。要生成 32 位数字,您只需要 32 位 - 不再。要生成一个 5 位数字,您只需要 17 位 - 四舍五入到 8 位字节,即只有 3 个字节。 tr -dc '0-9'
是一个很酷的技巧,但绝对不应该在任何实际代码中使用它。
奇怪的是
for ((i=0;i<100000000;++i)); do echo "$((0x$(dd if=/dev/urandom of=/dev/stdout bs=4 count=1 status=none | xxd -p)))"; done | cut -c-5
# cut to take first 5 digits
但这仍然是 令人无法接受的 慢,因为它为每个随机数运行 2 个进程(我认为只取前 5 位数字会产生不好的分布)。
我建议使用 $RANDOM
,在 bash 中可用。如果不是,如果您 真的想要 /dev/urandom
(并且真的知道您为什么想要它),请使用 $SRANDOM
。如果没有,我建议用真正的编程语言编写 /dev/urandom
的随机数生成,例如 C、C++、python、perl、ruby。我相信有人可以把它写成 awk
.
下面看起来不错,但仍然将二进制数据转换为十六进制,只是稍后将它们转换为十进制是 shell 无法处理二进制数据的解决方法:
count=10;
# take count*4 bytes from input
dd if=/dev/urandom of=/dev/stdout bs=4 count=$count status=none |
# Convert bytes to hex 4 bytes at a time
xxd -p -c 4 |
# Convert hex to decimal using GNU awk
awk --non-decimal-data '{printf "%d\n", "0x"[=11=]}'
你为什么要运行循环这个?您只需 运行 一组这些命令即可生成所有内容,例如:
cat /dev/urandom | tr -dc '0-9' | fold -w 5 | head -n 100000000
即只生成一个数字流,而不是单独生成它们。
我赞成为此使用另一种语言的建议,它应该更有效率。例如,在 Python 中,它只是:
from random import randrange
for _ in range(100000000):
print(randrange(100000))
@SamMason 给出了迄今为止最好的
cat /dev/urandom | tr -dc '0-9' | fold -w 5 | head -n 100000000
尽管如此,仍有很大的改进空间。首先,tr -dc '0-9'
只使用了来自 /dev/urandom 的大约 4% :-) 其次,根据最终使用这些随机数的方式,获取这些随机数可能会产生一些额外的开销去掉前导零——这样一些数字就不会被解释为八进制。让我提出一个更好的选择,使用 od
命令:
outputFile=/dev/null # For test. Replace with the real file.
count=100000000
od -An -t u2 -w2 /dev/urandom | head -n $count >$outputFile
使用 time
命令进行的快速测试表明这大约比 tr
版本快四倍。而且确实没有必要使用“另一种语言”,因为 od
和 head
都经过了高度优化,并且整个过程都以本机速度运行。
注意: 上述命令将生成 16 位整数,范围从 0 到 65535(含)。如果您需要更大的范围,那么您可以选择 32 位数字,这将为您提供从 0 到 4294967295 的范围:
od -An -t u4 -w4 /dev/urandom | head -n $count >$outputFile
如果需要,最终用户可以使用模除法将它们缩小到所需的大小。