无法让Scrapy跟随链接

时间:2011-08-12 20:21:44

标签: python regex screen-scraping scrapy

我正在尝试抓一个网站,但我不能让scrapy跟随链接,我没有得到任何Python错误,我看不到任何与Wireshark有关。我认为它可能是正则表达式,但我尝试“。*”试图遵循任何链接,但它也不起作用。方法“解析”确实有效,但我需要遵循“sinopsis.aspx”和回调parse_peliculas。

编辑:评论解析方法使得规则正常运行... parse_peliculas运行,我现在所知道的是将解析方法更改为另一个名称并使用回调制定规则但我仍然无法使其工作。< / p>

这是我的蜘蛛代码:

import re

from scrapy.selector import HtmlXPathSelector
from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractor
from scrapy.contrib.spiders import CrawlSpider, Rule
from Cinesillo.items import CinemarkItem, PeliculasItem

class CinemarkSpider(CrawlSpider):
    name = 'cinemark'
    allowed_domains = ['cinemark.com.mx']
    start_urls = ['http://www.cinemark.com.mx/smartphone/iphone/vercartelera.aspx?fecha=&id_theater=555',
                  'http://www.cinemark.com.mx/smartphone/iphone/vercartelera.aspx?fecha=&id_theater=528']


    rules = (Rule(SgmlLinkExtractor(allow=(r'sinopsis.aspx.*', )), callback='parse_peliculas', follow=True),)

    def parse(self, response):
        item = CinemarkItem()
        hxs = HtmlXPathSelector(response)
        cine = hxs.select('(//td[@class="title2"])[1]')
        direccion = hxs.select('(//td[@class="title2"])[2]')

        item['nombre'] = cine.select('text()').extract()
        item['direccion'] = direccion.select('text()').extract()
        return item

    def parse_peliculas(self, response):
        item = PeliculasItem()
        hxs = HtmlXPathSelector(response)
        titulo = hxs.select('//td[@class="pop_up_title"]')
        item['titulo'] = titulo.select('text()').extract()
        return item

由于

1 个答案:

答案 0 :(得分:8)

  

编写爬网蜘蛛规则时,请避免使用parse作为回调   CrawlSpider使用parse方法本身来实现其逻辑。   因此,如果您覆盖解析方法,则抓取蜘蛛将不再存在   工作

http://readthedocs.org/docs/scrapy/en/latest/topics/spiders.html