抓取抓取未遵循蜘蛛名称

时间:2020-08-23 18:32:22

标签: python scrapy

运行刮板蜘蛛时出现问题。 我有3个蜘蛛文件,其中1个不使用,看起来像这样。 蜘蛛1 蜘蛛2 蜘蛛3

我有一个主蜘蛛(spider1)一段时间了,现在工作良好,决定添加另一个蜘蛛(spider3),我刚刚制作了一个具有适当名称的新.py文件。在建造第二只蜘蛛的过程中工作了一段时间,使一切正常运行。 现在我的问题是运行第一个蜘蛛。 当我执行scrapy scraw spider1时,它只运行第3个Spider,并且我知道所有名称都正确。 我尝试运行scrapy list,但它刚开始运行3rd Spider。我运行scrapy version,它只运行第3蜘蛛。如果我运行scrapy crawl RandomName,那么它也只会运行3rd Spider。 我尝试删除所有__pycahe__文件,但结果仍然相同。 我尝试卸载并重新安装,但仍然得到相同的结果。

settings.py中是否需要做一些事情,以使其不忽略scrapy crawl命令或其他命令中的蜘蛛名称?

我不需要同时运行2个Spider或一个接一个地运行,我只想scrapy crawl收听我要呼叫的Spider。

任何帮助将不胜感激!

0 个答案:

没有答案
相关问题