获取错误码404对应的链接
get Links corresponding to error codes 404
我有大约 500 个玩家链接。
除了两个,所有链接 return 响应代码 200。
但是,我需要代码为 404 的确切链接/网址。
for p in range(len(playerLinks)):
page = playerLinks[p]
response = requests.get(page, headers={'User-Agent': 'Custom5'})
print(response.status_code)
injury = response.text
soup = BeautifulSoup(injury, 'html.parser')
table = soup.find(id="yw1")
非常感谢您的支持。
播放器链接的示例(这些链接的外观)是这样的(但至少有 500 个不同)
https://www.transfermarkt.de/Timothy Fosu-Mensah/verletzungen/spieler/315131']
您可以使用简单的 if
语句来做到这一点。
for p in range(len(playerLinks)):
page = playerLinks[p]
response = requests.get(page, headers={'User-Agent': 'Custom5'})
if response.status_code == 404:
print(page)
injury = response.text
soup = BeautifulSoup(injury, 'html.parser')
table = soup.find(id="yw1")
我有大约 500 个玩家链接。 除了两个,所有链接 return 响应代码 200。 但是,我需要代码为 404 的确切链接/网址。
for p in range(len(playerLinks)):
page = playerLinks[p]
response = requests.get(page, headers={'User-Agent': 'Custom5'})
print(response.status_code)
injury = response.text
soup = BeautifulSoup(injury, 'html.parser')
table = soup.find(id="yw1")
非常感谢您的支持。 播放器链接的示例(这些链接的外观)是这样的(但至少有 500 个不同)
https://www.transfermarkt.de/Timothy Fosu-Mensah/verletzungen/spieler/315131']
您可以使用简单的 if
语句来做到这一点。
for p in range(len(playerLinks)):
page = playerLinks[p]
response = requests.get(page, headers={'User-Agent': 'Custom5'})
if response.status_code == 404:
print(page)
injury = response.text
soup = BeautifulSoup(injury, 'html.parser')
table = soup.find(id="yw1")