处理网络错误 Python,网络爬虫
Handling Network Errors Python, Web Crawler
我正在一个大型网站上制作网络爬虫。但是,由于不稳定 connection.Thus,它总是遇到关闭的连接、SSL 错误或其他间歇性故障。我正在寻找解决此问题的方法。这是我下面的代码,谁能告诉我如何实现等待或在有网络连接时再次尝试重新启动项目
try:
requests.get("http://example.com")
except requests.exceptions.RequestException:
pass # handle the exception. maybe wait and try again later
无需尝试监听网络接口本身,您可以在失败时添加一个简单的'retry'机制:
import time
while True:
try:
requests.get("http://example.com")
break # you can also check the returned status before breaking the loop
except requests.exceptions.RequestException:
time.sleep(300) # wait 5 mins before retry
我正在一个大型网站上制作网络爬虫。但是,由于不稳定 connection.Thus,它总是遇到关闭的连接、SSL 错误或其他间歇性故障。我正在寻找解决此问题的方法。这是我下面的代码,谁能告诉我如何实现等待或在有网络连接时再次尝试重新启动项目
try:
requests.get("http://example.com")
except requests.exceptions.RequestException:
pass # handle the exception. maybe wait and try again later
无需尝试监听网络接口本身,您可以在失败时添加一个简单的'retry'机制:
import time
while True:
try:
requests.get("http://example.com")
break # you can also check the returned status before breaking the loop
except requests.exceptions.RequestException:
time.sleep(300) # wait 5 mins before retry