我有 20 种不同的蜘蛛,并且按计划运行。一天结束时,当我检查日志文件时,我收到了超过 15.000 行的日志。
我最近在 settings.py 中的日志设置
from datetime import datetime
now = datetime.today()
now_time = now.strftime("%d.%m.%y")
LOG_FORMAT = '%(levelname)s: %(message)s'
LOG_FILE = 'scrapy-log-'+now_time+'.txt'
但我想准备日志文件取决于蜘蛛名称
我对 settings.py 的期望
from datetime import datetime
now = datetime.today()
now_time = now.strftime("%d.%m.%y")
LOG_FORMAT = '%(levelname)s: %(message)s'
LOG_FILE = spider_name+now_time+'.txt'
但是我不知道如何在抓取所有蜘蛛时动态获取spider_name。
那么问题是如何在settings.py中动态使用spider_name?
答案 0 :(得分:1)
您可以在实例化蜘蛛时尝试覆盖设置。像这样:
class YourSpider(CrawlSpider):
start_urls = ['http://website.com']
allowed_domains = ['www.website.com']
name = 'spider_name'
custom_settings = {
'LOG_FILE' = name+now_time+'.txt',
}
请参阅文档 https://docs.scrapy.org/en/latest/topics/settings.html
中的“2. 每个蜘蛛的设置”部分