使用 python 创建一个脚本来捕获网页上的链接 3
Create a script to catch links on a webpage with python 3
我必须抓住这个页面中所有主题的链接:https://www.inforge.net/xi/forums/liste-proxy.1118/
我试过这个脚本:
import urllib.request
from bs4 import BeautifulSoup
url = (urllib.request.urlopen("https://www.inforge.net/xi/forums/liste-proxy.1118/"))
soup = BeautifulSoup(url, "lxml")
for link in soup.find_all('a'):
print(link.get('href'))
但它会打印页面的所有链接,而不仅仅是我想要的主题链接。你能建议我快速的方法吗?我还是个新手,最近才开始学习python。
您可以使用 BeautifulSoup 来解析 HTML:
from bs4 import BeautifulSoup
from urllib2 import urlopen
url= 'https://www.inforge.net/xi/forums/liste-proxy.1118/'
soup= BeautifulSoup(urlopen(url))
然后找到
的链接
soup.find_all('a', {'class':'PreviewTooltip'})
我必须抓住这个页面中所有主题的链接:https://www.inforge.net/xi/forums/liste-proxy.1118/
我试过这个脚本:
import urllib.request
from bs4 import BeautifulSoup
url = (urllib.request.urlopen("https://www.inforge.net/xi/forums/liste-proxy.1118/"))
soup = BeautifulSoup(url, "lxml")
for link in soup.find_all('a'):
print(link.get('href'))
但它会打印页面的所有链接,而不仅仅是我想要的主题链接。你能建议我快速的方法吗?我还是个新手,最近才开始学习python。
您可以使用 BeautifulSoup 来解析 HTML:
from bs4 import BeautifulSoup
from urllib2 import urlopen
url= 'https://www.inforge.net/xi/forums/liste-proxy.1118/'
soup= BeautifulSoup(urlopen(url))
然后找到
的链接soup.find_all('a', {'class':'PreviewTooltip'})