了解Scrapy中的回调

我是Python和Scrapy的新手。我以前没有使用过回调函数。但是,我现在为下面的代码做。将执行第一个请求,并将其响应发送到定义为第二个参数的回调函数:

def parse_page1(self, response):

item = MyItem()

item['main_url'] = response.url

request = Request("http://www.example.com/some_page.html",

callback=self.parse_page2)

request.meta['item'] = item

return request

def parse_page2(self, response):

item = response.meta['item']

item['other_url'] = response.url

return item

我无法理解以下内容:

  1. How is the item populated?
  2. 请问request.meta该行之前执行response.meta的线parse_page2
  3. 返回itemparse_page2去哪儿了?
  4. return request语句有parse_page1什么需要?我认为提取的物品需要从这里退回。

回答:

对于蜘蛛,抓取周期经历如下过程:

  1. 首先,生成初始请求以爬网第一个URL,然后指定要调用的回调函数,并从这些请求中下载响应。

要执行的第一个请求是通过调用 start_requests()(默认情况下)Request为方法中指定的URL 生成start_urls的parse方法以及作为请求的回调函数的方法而获得的。

  1. 在回调函数中,你解析响应(网页)并返回Item对象,Request对象或两者的迭代。这些请求还将包含一个回调(可能相同),然后由Scrapy下载,然后由指定的回调处理响应。

  2. 在回调函数中,通常使用选择器(但也可以使用BeautifulSoup,lxml或你喜欢的任何机制)来解析页面内容,并使用已解析的数据生成项目。

  3. 最后,通常将从spider返回的项目保存到数据库(在某些项目管道中)或使用Feed导出写入文件。

答案:

line in之前'item',该request.meta行如何执行?response.metaparse_page2

spider由Scrapy引擎管理。它首先从中指定的URL发出请求,start_urls然后将其传递给下载器。下载完成后,将调用请求中指定的回调。如果回调返回另一个请求,则重复同样的事情。如果回调返回Item,则该项目将传递到管道以保存抓取的数据。

退回的物品从哪parse_page2里去?

有什么需要return request陈述的parse_page1?我认为提取的物品需要从这里退回吗?

如文档中所述,每个回调(parse_page1parse_page2)都可以返回a Requestan Item(或它们的可迭代)。parse_page1返回Request不是Item,因为需要从其他URL刮除其他信息。第二个回调parse_page2返回一个项目,因为所有信息都已被抓取并准备好传递到管道。

以上是 了解Scrapy中的回调 的全部内容, 来源链接: utcz.com/qa/427630.html

回到顶部