使用 PostBack 数据 javascript Python Scrapy 爬取页面
Crawling through pages with PostBack data javascript Python Scrapy
我正在通过 Scrapy ASP.NET 编程来浏览一些目录。
要抓取的页面编码如下:
javascript:__doPostBack('ctl00$MainContent$List','Page$X')
其中 X 是 1 到 180 之间的整数。MainContent 参数始终相同。我不知道如何爬进这些。我很想在 SLE 规则中添加一些像 allow=('Page$')
或 attrs='__doPostBack'
这样简单的东西,但我想我必须更狡猾才能从 javascript "link."
如果 "unmask" 来自 javascript 代码的每个绝对链接并将它们保存到 csv 中更容易,然后使用该 csv 将请求加载到新的爬虫中,那也没关系.
这种分页并不像看起来那么微不足道。解决它是一个有趣的挑战。关于下面提供的解决方案有几个重要说明:
- 这里的想法是在
Request.meta
dictionary 中逐页跟随当前页面的分页
- 使用 regular
BaseSpider
因为分页涉及一些逻辑
- 重要的是提供
headers
伪装成真正的浏览器
- 使用
dont_filter=True
生成 FormRequest
很重要,因为我们基本上是向相同的 URL 发出 POST
请求,但参数不同
代码:
import re
from scrapy.http import FormRequest
from scrapy.spider import BaseSpider
HEADERS = {
'X-MicrosoftAjax': 'Delta=true',
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.76 Safari/537.36'
}
URL = 'http://exitrealty.com/agent_list.aspx?firstName=&lastName=&country=USA&state=NY'
class ExitRealtySpider(BaseSpider):
name = "exit_realty"
allowed_domains = ["exitrealty.com"]
start_urls = [URL]
def parse(self, response):
# submit a form (first page)
self.data = {}
for form_input in response.css('form#aspnetForm input'):
name = form_input.xpath('@name').extract()[0]
try:
value = form_input.xpath('@value').extract()[0]
except IndexError:
value = ""
self.data[name] = value
self.data['ctl00$MainContent$ScriptManager1'] = 'ctl00$MainContent$UpdatePanel1|ctl00$MainContent$agentList'
self.data['__EVENTTARGET'] = 'ctl00$MainContent$List'
self.data['__EVENTARGUMENT'] = 'Page'
return FormRequest(url=URL,
method='POST',
callback=self.parse_page,
formdata=self.data,
meta={'page': 1},
dont_filter=True,
headers=HEADERS)
def parse_page(self, response):
current_page = response.meta['page'] + 1
# parse agents (TODO: yield items instead of printing)
for agent in response.xpath('//a[@class="regtext"]/text()'):
print agent.extract()
print "------"
# request the next page
data = {
'__EVENTARGUMENT': 'Page$%d' % current_page,
'__EVENTVALIDATION': re.search(r"__EVENTVALIDATION\|(.*?)\|", response.body, re.MULTILINE).group(1),
'__VIEWSTATE': re.search(r"__VIEWSTATE\|(.*?)\|", response.body, re.MULTILINE).group(1),
'__ASYNCPOST': 'true',
'__EVENTTARGET': 'ctl00$MainContent$agentList',
'ctl00$MainContent$ScriptManager1': 'ctl00$MainContent$UpdatePanel1|ctl00$MainContent$agentList',
'': ''
}
return FormRequest(url=URL,
method='POST',
formdata=data,
callback=self.parse_page,
meta={'page': current_page},
dont_filter=True,
headers=HEADERS)
我正在通过 Scrapy ASP.NET 编程来浏览一些目录。
要抓取的页面编码如下:
javascript:__doPostBack('ctl00$MainContent$List','Page$X')
其中 X 是 1 到 180 之间的整数。MainContent 参数始终相同。我不知道如何爬进这些。我很想在 SLE 规则中添加一些像 allow=('Page$')
或 attrs='__doPostBack'
这样简单的东西,但我想我必须更狡猾才能从 javascript "link."
如果 "unmask" 来自 javascript 代码的每个绝对链接并将它们保存到 csv 中更容易,然后使用该 csv 将请求加载到新的爬虫中,那也没关系.
这种分页并不像看起来那么微不足道。解决它是一个有趣的挑战。关于下面提供的解决方案有几个重要说明:
- 这里的想法是在
Request.meta
dictionary 中逐页跟随当前页面的分页
- 使用 regular
BaseSpider
因为分页涉及一些逻辑 - 重要的是提供
headers
伪装成真正的浏览器 - 使用
dont_filter=True
生成FormRequest
很重要,因为我们基本上是向相同的 URL 发出POST
请求,但参数不同
代码:
import re
from scrapy.http import FormRequest
from scrapy.spider import BaseSpider
HEADERS = {
'X-MicrosoftAjax': 'Delta=true',
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.76 Safari/537.36'
}
URL = 'http://exitrealty.com/agent_list.aspx?firstName=&lastName=&country=USA&state=NY'
class ExitRealtySpider(BaseSpider):
name = "exit_realty"
allowed_domains = ["exitrealty.com"]
start_urls = [URL]
def parse(self, response):
# submit a form (first page)
self.data = {}
for form_input in response.css('form#aspnetForm input'):
name = form_input.xpath('@name').extract()[0]
try:
value = form_input.xpath('@value').extract()[0]
except IndexError:
value = ""
self.data[name] = value
self.data['ctl00$MainContent$ScriptManager1'] = 'ctl00$MainContent$UpdatePanel1|ctl00$MainContent$agentList'
self.data['__EVENTTARGET'] = 'ctl00$MainContent$List'
self.data['__EVENTARGUMENT'] = 'Page'
return FormRequest(url=URL,
method='POST',
callback=self.parse_page,
formdata=self.data,
meta={'page': 1},
dont_filter=True,
headers=HEADERS)
def parse_page(self, response):
current_page = response.meta['page'] + 1
# parse agents (TODO: yield items instead of printing)
for agent in response.xpath('//a[@class="regtext"]/text()'):
print agent.extract()
print "------"
# request the next page
data = {
'__EVENTARGUMENT': 'Page$%d' % current_page,
'__EVENTVALIDATION': re.search(r"__EVENTVALIDATION\|(.*?)\|", response.body, re.MULTILINE).group(1),
'__VIEWSTATE': re.search(r"__VIEWSTATE\|(.*?)\|", response.body, re.MULTILINE).group(1),
'__ASYNCPOST': 'true',
'__EVENTTARGET': 'ctl00$MainContent$agentList',
'ctl00$MainContent$ScriptManager1': 'ctl00$MainContent$UpdatePanel1|ctl00$MainContent$agentList',
'': ''
}
return FormRequest(url=URL,
method='POST',
formdata=data,
callback=self.parse_page,
meta={'page': current_page},
dont_filter=True,
headers=HEADERS)