有什么方法可以将 /dev/urandom 生成的字符流拆分为不同的子流吗?

Is there any way to split a character stream generated from /dev/urandom to different substreams?

我需要获取由硬件设备生成的高速随机数流并将其拆分为不同的子流。出于测试目的,我考虑将 /dev/urandom 作为数据源。有什么 linux 工具吗?如果没有 - 请帮助 bash 脚本来完成它。 子流速度的总和应加起来等于初始流速度(或接近)。通过使用文件描述符 3(或其他)在 netcat 和 /dev/tcp 之间创建套接字,随后将子流发送给最终用户。

请考虑使用以下代码:

od -An -t o2  /dev/urandom | awk '{ print  }' | awk '{= /4;= -;print " "" "}'

第一列将是主流,您可以选择将其拆分为n个列或流,这里我尝试将其拆分为两列。即主流和两个子流,子流加起来就是主流

以上代码的示例输出是:

032621 8155.25 24465.8
163465 40866.2 122599
023403 5850.75 17552.2
100755 25188.8 75566.2
052763 13190.8 39572.2
015401 3850.25 11550.8
062161 15540.2 46620.8
100415 25103.8 75311.2
142550 35637.5 106912
141450 35362.5 106088
057473 14368.2 43104.8
023430 5857.5 17572.5
007112 1778 5334
036372 9093 27279

P.S。我不太擅长 awk,所以 awk 部分代码可以有很多改进。