在 scrapyd.schedule 中找不到蜘蛛
Spider not found in scrapyd.schedule
我正在尝试从 django 启动 scrapyd
scrapyd代码是这样的
unique_id = str(uuid4()) # create a unique ID.
settings = {
'unique_id': unique_id, # unique ID for each record for DB
'USER_AGENT': 'Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)'
}
task = scrapyd.schedule('scrap_lowongan','josbid', settings=settings)
不过,我得到
scrapyd_api.exceptions.ScrapydResponseError: spider 'josbid' not found
我的文件夹结构是这样的
Bitalisy>
Bitalisy
Scraping>
views.py (Schedule scrapyd from here)
scrap_lowongan> (scrapy Project)
scrap_lowongan>
spider>
jobsid.py
settings.py
pipelines.py
scrapyd.conf
scrapy.cfg
请注意,我使用 scrapyd.conf 因为我有两个 scrapy 项目。 scrapy.conf
[scrapyd]
http_port = 6801
谢谢
我发现您必须添加:
scrapyd = ScrapydAPI('http://localhost:6801')
重新启动scrapyd后它就可以工作了
喜欢魅力。阅读更多文档 here
我正在尝试从 django 启动 scrapyd scrapyd代码是这样的
unique_id = str(uuid4()) # create a unique ID.
settings = {
'unique_id': unique_id, # unique ID for each record for DB
'USER_AGENT': 'Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)'
}
task = scrapyd.schedule('scrap_lowongan','josbid', settings=settings)
不过,我得到
scrapyd_api.exceptions.ScrapydResponseError: spider 'josbid' not found
我的文件夹结构是这样的
Bitalisy>
Bitalisy
Scraping>
views.py (Schedule scrapyd from here)
scrap_lowongan> (scrapy Project)
scrap_lowongan>
spider>
jobsid.py
settings.py
pipelines.py
scrapyd.conf
scrapy.cfg
请注意,我使用 scrapyd.conf 因为我有两个 scrapy 项目。 scrapy.conf
[scrapyd]
http_port = 6801
谢谢
我发现您必须添加:
scrapyd = ScrapydAPI('http://localhost:6801')
重新启动scrapyd后它就可以工作了 喜欢魅力。阅读更多文档 here