Scrapy教程错误:“不再支持使用多个蜘蛛运行'Scrapy Crawl'”

时间:2017-11-09 21:22:53

标签: python scrapy

Windows 10,命令行终端,Python 3.6.3 | Anaconda,Inc。| (默认,2017年10月15日,03:27:45)[MSC v.1900 64位(AMD64)]在win32上

Python及其新手遵循以下教程说明:https://docs.scrapy.org/en/latest/intro/tutorial.html

在我运行第一次抓取的步骤中,我收到以下错误...我只创建了一个文件quotes_spider.py,如教程所示。我也尝试将目录更改为c:\Anaconda\projects\tutorial\startprojectc:\Anaconda\projects\tutorial\startproject\spiders,但会出现同样的错误。

c:\Anaconda\projects\tutorial>c:\Anaconda\Scripts\scrapy.exe -scrapy crawl quotes  

2017-11-09 16:08:26 [scrapy.utils.log] INFO: Scrapy 1.4.0 started (bot: startproject)
2017-11-09 16:08:26 [scrapy.utils.log] INFO: Overridden settings: {'BOT_NAME': 'startproject', 'NEWSPIDER_MODULE': 'startproject.spiders', 'ROBOTSTXT_OBEY': True, 'SPIDER_MODULES': ['startproject.spiders']}
Usage
=====
  scrapy crawl [options] <spider>

scrapy: error: running 'scrapy crawl' with more than one spider is no longer supported

1 个答案:

答案 0 :(得分:2)

出了什么问题

<强> ....scrapy.exe -scrapy crawl quotes

应该是什么

<强> ....scrapy.exe crawl quotes

为什么

  

这是scrapy的所有可用命令,没有-scrapy选项:   enter image description here

建议

Scrapy Official Tutorial PDF Version