Scrapy/Splash 点击一个按钮然后从新页面获取内容 window
Scrapy/Splash Click on a button then get content from new page in new window
我遇到一个问题,当我点击一个按钮时,Javascript 处理这个动作,然后它重定向到一个新的 window 页面(这类似于当你点击<a>
与目标 _Blank
)。在 scrapy/splash 我不知道如何从新页面获取内容(我的意思是我不知道如何控制那个新页面)。
任何人都可以提供帮助!
script = """
function main(splash)
assert(splash:go(splash.args.url))
splash:wait(0.5)
local element = splash:select('div.result-content-columns div.result-title')
local bounds = element:bounds()
element:mouse_click{x=bounds.width/2, y=bounds.height/2}
return splash:html()
end
"""
def start_requests(self):
for url in self.start_urls:
yield SplashRequest(url, self.parse, endpoint='execute', args={'lua_source': self.script})
问题:
无法抓取的问题html超出了您的选择范围。当点击一个新的 link 时,如果涉及 iframe,它很少将其纳入抓取范围。
解决方案:
Choose方法选择新的iframe,然后继续解析新的html。
Scrapy-Splash 方法
(这是对 中 Mikhail Korobov 的解决方案的改编)
如果你能拿到弹出的新页面的srclink,可能most靠谱,不过你也可以试试这样选择iframe:
# ...
yield SplashRequest(url, self.parse_result, endpoint='render.json',
args={'html': 1, 'iframes': 1})
def parse_result(self, response):
iframe_html = response.data['childFrames'][0]['html']
sel = parsel.Selector(iframe_html)
item = {
'my_field': sel.xpath(...),
# ...
}
Selenium 方法
(需要 pip install selenium、bs4 和 possibly chrome 驱动程序从这里下载 os:Selenium Chromedrivers)支持 Javascript 解析!哇哦!
使用以下代码,这会将范围切换到新框架:
# Goes at the top
from bs4 import BeautifulSoup
from selenium.webdriver.chrome.options import Options
import time
# Your path depends on where you downloaded/located your chromedriver.exe
CHROME_PATH = 'C:\Program Files (x86)\Google\Chrome\Application\chrome.exe'
CHROMEDRIVER_PATH = 'chromedriver.exe'
WINDOW_SIZE = "1920,1080"
chrome_options = Options()
chrome_options.add_argument("--log-level=3")
chrome_options.add_argument("--headless") # Speeds things up if you don't need gui
chrome_options.add_argument("--window-size=%s" % WINDOW_SIZE)
chrome_options.binary_location = CHROME_PATH
browser = webdriver.Chrome(executable_path=CHROMEDRIVER_PATH, chrome_options=chrome_options)
url = "example_js_site.com" # Your site goes here
browser.get(url)
time.sleep(3) # An unsophisticated way to wait for the new page to load.
browser.switch_to.frame(0)
soup = BeautifulSoup(browser.page_source.encode('utf-8').strip(), 'lxml')
# This will return any content found in tags called '<table>'
table = soup.find_all('table')
这两个选项中我最喜欢的是 Selenium,但如果您更喜欢第一个解决方案,请尝试它!
我遇到一个问题,当我点击一个按钮时,Javascript 处理这个动作,然后它重定向到一个新的 window 页面(这类似于当你点击<a>
与目标 _Blank
)。在 scrapy/splash 我不知道如何从新页面获取内容(我的意思是我不知道如何控制那个新页面)。
任何人都可以提供帮助!
script = """
function main(splash)
assert(splash:go(splash.args.url))
splash:wait(0.5)
local element = splash:select('div.result-content-columns div.result-title')
local bounds = element:bounds()
element:mouse_click{x=bounds.width/2, y=bounds.height/2}
return splash:html()
end
"""
def start_requests(self):
for url in self.start_urls:
yield SplashRequest(url, self.parse, endpoint='execute', args={'lua_source': self.script})
问题:
无法抓取的问题html超出了您的选择范围。当点击一个新的 link 时,如果涉及 iframe,它很少将其纳入抓取范围。
解决方案:
Choose方法选择新的iframe,然后继续解析新的html。
Scrapy-Splash 方法
(这是对
如果你能拿到弹出的新页面的srclink,可能most靠谱,不过你也可以试试这样选择iframe:
# ...
yield SplashRequest(url, self.parse_result, endpoint='render.json',
args={'html': 1, 'iframes': 1})
def parse_result(self, response):
iframe_html = response.data['childFrames'][0]['html']
sel = parsel.Selector(iframe_html)
item = {
'my_field': sel.xpath(...),
# ...
}
Selenium 方法
(需要 pip install selenium、bs4 和 possibly chrome 驱动程序从这里下载 os:Selenium Chromedrivers)支持 Javascript 解析!哇哦!
使用以下代码,这会将范围切换到新框架:
# Goes at the top
from bs4 import BeautifulSoup
from selenium.webdriver.chrome.options import Options
import time
# Your path depends on where you downloaded/located your chromedriver.exe
CHROME_PATH = 'C:\Program Files (x86)\Google\Chrome\Application\chrome.exe'
CHROMEDRIVER_PATH = 'chromedriver.exe'
WINDOW_SIZE = "1920,1080"
chrome_options = Options()
chrome_options.add_argument("--log-level=3")
chrome_options.add_argument("--headless") # Speeds things up if you don't need gui
chrome_options.add_argument("--window-size=%s" % WINDOW_SIZE)
chrome_options.binary_location = CHROME_PATH
browser = webdriver.Chrome(executable_path=CHROMEDRIVER_PATH, chrome_options=chrome_options)
url = "example_js_site.com" # Your site goes here
browser.get(url)
time.sleep(3) # An unsophisticated way to wait for the new page to load.
browser.switch_to.frame(0)
soup = BeautifulSoup(browser.page_source.encode('utf-8').strip(), 'lxml')
# This will return any content found in tags called '<table>'
table = soup.find_all('table')
这两个选项中我最喜欢的是 Selenium,但如果您更喜欢第一个解决方案,请尝试它!