如何通过 setuptools 安装 Crawlera
How install Crawlera via setuptools
我想在 docker 中安装 crawlera avec setuptools。
在我的 scrapy.cfg 文件中我有:
[deploy=test]
url = http://localhost:6800/
project = Crawling
我通过 scrapyd-deploy -l
测试,我有
test http://localhost:6800/
在我的 setup.py
我有
从 setuptools 导入设置,find_packages
setup(
name = 'Crawling',
version = '1.0',
packages = find_packages(),
entry_points = {'scrapy': ['settings = Crawling.settings']},
install_requires=['scrapy-crawlera'],
)
最后在我的 requires.txt
我有 scrapy-crawlera
但是 crawlera 没有 安装在我的 docker.
Docker没有正确安装,我通过重新安装解决了我的问题Docker
我想在 docker 中安装 crawlera avec setuptools。
在我的 scrapy.cfg 文件中我有:
[deploy=test]
url = http://localhost:6800/
project = Crawling
我通过 scrapyd-deploy -l
测试,我有
test http://localhost:6800/
在我的 setup.py
我有
从 setuptools 导入设置,find_packages
setup(
name = 'Crawling',
version = '1.0',
packages = find_packages(),
entry_points = {'scrapy': ['settings = Crawling.settings']},
install_requires=['scrapy-crawlera'],
)
最后在我的 requires.txt
我有 scrapy-crawlera
但是 crawlera 没有 安装在我的 docker.
Docker没有正确安装,我通过重新安装解决了我的问题Docker