Scrapy Shell: twisted.internet.error.ConnectionLost 尽管设置了 USER_AGENT

Scrapy Shell: twisted.internet.error.ConnectionLost although USER_AGENT is set

当我尝试抓取某个网站(同时使用 spider 和 shell)时,出现以下错误:

twisted.web._newclient.ResponseNeverReceived: [<twisted.python.failure.Failure twisted.internet.error.ConnectionLost: Connection to the other side was lost in a non-clean fashion.>]

我发现当没有设置用户代理时会发生这种情况。 但是手动设置后还是报同样的错误

你可以在这里看到 scrapy shell 的全部输出:http://pastebin.com/ZFJZ2UXe

备注:

我没有使用代理,我可以通过 scrapy shell 毫无问题地访问其他站点。我也可以使用 Chrome 访问该站点,所以这不是网络或连接问题。

也许有人可以告诉我如何解决这个问题?

这是 100% 的工作代码。

您还需要发送请求 headers。

同时在 settings.py

中设置 ROBOTSTXT_OBEY = False
# -*- coding: utf-8 -*-
import scrapy, logging
from scrapy.http.request import Request

class Test1SpiderSpider(scrapy.Spider):
    name = "test1_spider"

    def start_requests(self):

        headers = {
            "Host": "www.firmenabc.at",
            "Connection": "keep-alive",
            "Cache-Control": "max-age=0",
            "Upgrade-Insecure-Requests": "1",
            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36",
            "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
            "DNT": "1",
            "Accept-Encoding": "gzip, deflate, sdch",
            "Accept-Language":"en-US,en;q=0.8"
        }

        yield Request(url= 'http://www.firmenabc.at/result.aspx?what=&where=Graz', callback=self.parse_detail_page, headers=headers)

    def parse_detail_page(self, response):
        logging.info(response.body)

编辑:

您可以通过检查 Dev Tools

中的 URL 查看要发送的内容 headers