Force my scrapy spider to stop crawling

如果条件为true(例如scrap_item_id == predefine_value),则有机会停止爬网。我的问题与Scrapy类似-如何识别已经被抓取的网址,但是我想在发现最后一个被抓取的物品后“强迫”我的抓取spider停止爬行。

回答:

在GitHub上可用的最新版本的Scrapy中,你可以引发CloseSpider异常以手动关闭蜘蛛。

在0.14版本说明文档中提到了文档:“添加了CloseSpider异常以手动关闭蜘蛛(r2691)”

根据文档的示例:

def parse_page(self, response):

if 'Bandwidth exceeded' in response.body:

raise CloseSpider('bandwidth_exceeded')

以上是 Force my scrapy spider to stop crawling 的全部内容, 来源链接: utcz.com/qa/400474.html

回到顶部