抓取网页 <ul> <li> (Python)
Scrape web page <ul> <li> (Python)
问题:
有一个网站 https://au.pcpartpicker.com/products/cpu/overall-list/#page=1 在 <ul>
下有一个列表 <li>
列表中的每个项目都包含一个 <div>
和 class title 其中 class 还有 2 个 <div>
元素第一个有一些文本示例 3.4 GHz 6 核(Pinnacle Ridge) 我想删除所有不在括号中的文本以获得 Pinnacle Ridge。删除列表后,我想通过更改 #page=.
进入下一页
代码:
我不太确定是否只有片段,但这里是:
从 requests_html 导入 HTMLSession
session = HTMLSession()
r = session.get('https://au.pcpartpicker.com/product/cpu/overall-list/#page=' + page)
table = r.html.find('.ul')
//not sure find each <li> get first <div>
junk, name = div.split('(')
name.replace("(", "")
name.replace(")", "")
预期结果:
我想遍历每个页面,直到 none 剩下找到每个列表并获取不需要保存的名称,因为我有在创建时保存它的代码。
如果您需要更多信息,请告诉我
谢谢
该网站是动态的,因此,您必须使用 selenium
才能产生所需的结果:
from bs4 import BeautifulSoup as soup
from selenium import webdriver
import time, re
d = webdriver.Chrome('/path/to/chromdriver')
d.get('https://au.pcpartpicker.com/products/cpu/overall-list/#page=1')
def cpus(_source):
result = soup(_source, 'html.parser').find('ul', {'id':'category_content'}).find_all('li')
_titles = list(filter(None, [(lambda x:'' if x is None else x.text)(i.find('div', {'class':'title'})) for i in result]))
data = [list(filter(None, [re.findall('(?<=\().*?(?=\))', c.text) for c in i.find_all('div')])) for i in result]
return _titles, [a for *_, [a] in filter(None, data)]
_titles, _cpus = cpus(d.page_source))
conn.executemany("INSERT INTO cpu (name, family) VALUES (?, ?)", list(zip(_titles, _cpus)))
_last_page = soup(d.page_source, 'html.parser').find_all('a', {'href':re.compile('#page\=\d+')})[-1].text
for i in range(2, int(_last_page)+1):
d.get(f'https://au.pcpartpicker.com/products/cpu/overall-list/#page={i}')
time.sleep(3)
_titles, _cpus = cpus(d.page_source))
conn.executemany("INSERT INTO cpu (name, family) VALUES (?, ?)", list(zip(_titles, _cpus)))
问题:
有一个网站 https://au.pcpartpicker.com/products/cpu/overall-list/#page=1 在 <ul>
下有一个列表 <li>
列表中的每个项目都包含一个 <div>
和 class title 其中 class 还有 2 个 <div>
元素第一个有一些文本示例 3.4 GHz 6 核(Pinnacle Ridge) 我想删除所有不在括号中的文本以获得 Pinnacle Ridge。删除列表后,我想通过更改 #page=.
代码:
我不太确定是否只有片段,但这里是:
从 requests_html 导入 HTMLSession session = HTMLSession()
r = session.get('https://au.pcpartpicker.com/product/cpu/overall-list/#page=' + page)
table = r.html.find('.ul')
//not sure find each <li> get first <div>
junk, name = div.split('(')
name.replace("(", "")
name.replace(")", "")
预期结果:
我想遍历每个页面,直到 none 剩下找到每个列表并获取不需要保存的名称,因为我有在创建时保存它的代码。
如果您需要更多信息,请告诉我
谢谢
该网站是动态的,因此,您必须使用 selenium
才能产生所需的结果:
from bs4 import BeautifulSoup as soup
from selenium import webdriver
import time, re
d = webdriver.Chrome('/path/to/chromdriver')
d.get('https://au.pcpartpicker.com/products/cpu/overall-list/#page=1')
def cpus(_source):
result = soup(_source, 'html.parser').find('ul', {'id':'category_content'}).find_all('li')
_titles = list(filter(None, [(lambda x:'' if x is None else x.text)(i.find('div', {'class':'title'})) for i in result]))
data = [list(filter(None, [re.findall('(?<=\().*?(?=\))', c.text) for c in i.find_all('div')])) for i in result]
return _titles, [a for *_, [a] in filter(None, data)]
_titles, _cpus = cpus(d.page_source))
conn.executemany("INSERT INTO cpu (name, family) VALUES (?, ?)", list(zip(_titles, _cpus)))
_last_page = soup(d.page_source, 'html.parser').find_all('a', {'href':re.compile('#page\=\d+')})[-1].text
for i in range(2, int(_last_page)+1):
d.get(f'https://au.pcpartpicker.com/products/cpu/overall-list/#page={i}')
time.sleep(3)
_titles, _cpus = cpus(d.page_source))
conn.executemany("INSERT INTO cpu (name, family) VALUES (?, ?)", list(zip(_titles, _cpus)))