是否有 Linux 命令行实用程序用于从 Web 获取随机数据?
Is there a Linux command line utility for getting random data to work with from the web?
我是 Linux 新手,我经常发现自己在处理一堆随机数据。
例如:我想处理一个示例文本文件来尝试一些正则表达式,或者从 csv 文件或其他文件中的一些示例数据中将一些数据读入 gnuplot。
我通常通过从 Internet 复制和粘贴段落来执行此操作,但我想知道是否存在某种命令组合可以让我在不离开终端的情况下执行此操作。我正在考虑使用类似 curl
命令的东西,但我不知道它是如何工作的...
据我所知,有些网站托管内容。我只想访问它们并将它们存储在我的计算机中。
总而言之,作为一个具体示例,我如何仅使用命令行从网站复制并粘贴互联网上的随机段落并将其存储在我系统的文件中?也许你能给我指出正确的方向。谢谢
您可以将 curl 命令的输出重定向到一个文件中,例如
curl https://run.mocky.io/v3/5f03b1ef-783f-439d-b8c5-bc5ad906cb14 > data-output
请注意,我在 Mocky 中模拟了数据,这是一个快速模拟 API 的好网站。
我通常使用 “Project Gutenberg”,其中有 60,000 多本书可以免费下载 online。
所以,如果我想要 "Peter Pan and Wendy" J.M 的全文。巴里,我愿意:
curl "http://www.gutenberg.org/files/16/16-0.txt" > PeterPan.txt
如果您查看那本书的 page,您可以了解如何以 HTML、纯文本、ePUB 或 UTF-8 格式获取它。
我是 Linux 新手,我经常发现自己在处理一堆随机数据。 例如:我想处理一个示例文本文件来尝试一些正则表达式,或者从 csv 文件或其他文件中的一些示例数据中将一些数据读入 gnuplot。
我通常通过从 Internet 复制和粘贴段落来执行此操作,但我想知道是否存在某种命令组合可以让我在不离开终端的情况下执行此操作。我正在考虑使用类似 curl
命令的东西,但我不知道它是如何工作的...
据我所知,有些网站托管内容。我只想访问它们并将它们存储在我的计算机中。
总而言之,作为一个具体示例,我如何仅使用命令行从网站复制并粘贴互联网上的随机段落并将其存储在我系统的文件中?也许你能给我指出正确的方向。谢谢
您可以将 curl 命令的输出重定向到一个文件中,例如
curl https://run.mocky.io/v3/5f03b1ef-783f-439d-b8c5-bc5ad906cb14 > data-output
请注意,我在 Mocky 中模拟了数据,这是一个快速模拟 API 的好网站。
我通常使用 “Project Gutenberg”,其中有 60,000 多本书可以免费下载 online。
所以,如果我想要 "Peter Pan and Wendy" J.M 的全文。巴里,我愿意:
curl "http://www.gutenberg.org/files/16/16-0.txt" > PeterPan.txt
如果您查看那本书的 page,您可以了解如何以 HTML、纯文本、ePUB 或 UTF-8 格式获取它。