将数据发送到另一个脚本而不被阻止的最佳选择是什么
What is the best option to send data to another script without be blocked
我一直在研究两个脚本,其中一个脚本(我们可以调用 generate_data.py
)生成数据(全天候 24/7 查找新数据),我有 notifications.py
接收来自 generate_data
的数据,将其转换为 json 并通过请求 post 将其转换为我的服务器。
我遇到了一些问题,其中之一是我需要它同时 运行。这意味着每当 generate_data.py
正在寻找新数据时,当它将数据发送到 notifications.py
时,它不应该等待 notifications.py
完成。相反,它应该一直工作并且只在发现新数据时将数据发送到 notifications.py
并继续寻找新数据。
可能发生的情况是generate_data.py
可以同时获取新的5个数据,需要发送给notifications.py
需要尽快将请求发送到我的服务器没有任何 delay/stopping/blocking.
我得到的建议很少,例如使用 listener
、queue
、rcp
、threading
、multiprocessing
,但我在这里。我的问题是,如果我有 24/7 的 generate_data.py
并且 notifications.py
应该只 post 一旦它从 [=36= 获得数据,那么我最好的选择是什么? ] 和 post 尽快将它发送到我的服务器,而不是 blocked/stopped 如果有任何例子也将不胜感激! (使用 python)
因此 generate_data 脚本生成数据并将其发送到通知脚本,而通知脚本正在处理已发送的数据,同时由 generate_data 生成的数据存储在其中以推送稍后通知脚本?
你可以按照你的要求做一件事 python..
您可以始终在文件中生成数据,通知脚本读取内容并仅删除读取的内容,这样您就可以同时执行这两项操作。
我一直在研究两个脚本,其中一个脚本(我们可以调用 generate_data.py
)生成数据(全天候 24/7 查找新数据),我有 notifications.py
接收来自 generate_data
的数据,将其转换为 json 并通过请求 post 将其转换为我的服务器。
我遇到了一些问题,其中之一是我需要它同时 运行。这意味着每当 generate_data.py
正在寻找新数据时,当它将数据发送到 notifications.py
时,它不应该等待 notifications.py
完成。相反,它应该一直工作并且只在发现新数据时将数据发送到 notifications.py
并继续寻找新数据。
可能发生的情况是generate_data.py
可以同时获取新的5个数据,需要发送给notifications.py
需要尽快将请求发送到我的服务器没有任何 delay/stopping/blocking.
我得到的建议很少,例如使用 listener
、queue
、rcp
、threading
、multiprocessing
,但我在这里。我的问题是,如果我有 24/7 的 generate_data.py
并且 notifications.py
应该只 post 一旦它从 [=36= 获得数据,那么我最好的选择是什么? ] 和 post 尽快将它发送到我的服务器,而不是 blocked/stopped 如果有任何例子也将不胜感激! (使用 python)
因此 generate_data 脚本生成数据并将其发送到通知脚本,而通知脚本正在处理已发送的数据,同时由 generate_data 生成的数据存储在其中以推送稍后通知脚本?
你可以按照你的要求做一件事 python.. 您可以始终在文件中生成数据,通知脚本读取内容并仅删除读取的内容,这样您就可以同时执行这两项操作。