Running Scrapy spiders in a Celery task
我有一个Django站点,当用户请求时会发生刮擦,并且我的代码在新过程中启动了Scrapy Spider独立脚本。自然,这与增加用户无关。
像这样:
class StandAloneSpider(Spider): #a regular spider
settings.overrides['LOG_ENABLED'] = True
#more settings can be changed...
crawler = CrawlerProcess( settings )
crawler.install()
crawler.configure()
spider = StandAloneSpider()
crawler.crawl( spider )
crawler.start()
我决定使用Celery并使用worker来对爬网请求进行排队。
但是,我遇到了无法重新启动tornado反应堆的问题。第一个蜘蛛和第二个蜘蛛成功运行,但随后的蜘蛛将引发ReactorNotRestartable错误。
任何人都可以在Celery框架中与运行Spiders分享任何技巧?
回答:
好的,这就是我如何使Scrapy与我的Django项目一起工作的,该项目使用Celery来排队要爬网的内容。实际的解决方法主要来自位于http://snippets.scrapy.org/snippets/13/的 joehillen的代码。
首先tasks.py
文件
from celery import task@task()
def crawl_domain(domain_pk):
from crawl import domain_crawl
return domain_crawl(domain_pk)
然后crawl.py
文件
from multiprocessing import Processfrom scrapy.crawler import CrawlerProcess
from scrapy.conf import settings
from spider import DomainSpider
from models import Domain
class DomainCrawlerScript():
def __init__(self):
self.crawler = CrawlerProcess(settings)
self.crawler.install()
self.crawler.configure()
def _crawl(self, domain_pk):
domain = Domain.objects.get(
pk = domain_pk,
)
urls = []
for page in domain.pages.all():
urls.append(page.url())
self.crawler.crawl(DomainSpider(urls))
self.crawler.start()
self.crawler.stop()
def crawl(self, domain_pk):
p = Process(target=self._crawl, args=[domain_pk])
p.start()
p.join()
crawler = DomainCrawlerScript()
def domain_crawl(domain_pk):
crawler.crawl(domain_pk)
这里的窍门是“来自多处理导入过程”,它解决了Twisted框架中的“ ReactorNotRestartable”问题。因此,基本上Celery任务调用了“ domain_crawl”函数,该函数反复使用“ DomainCrawlerScript”对象来与Scrapy蜘蛛进行交互。(我知道我的示例有点多余,但是我这样做是出于我使用多个版本的python的原因[我的django Web服务器实际上正在使用python2.4,而我的工作服务器使用python2.7])
在我的示例中,“ DomainSpider”只是一个经过修改的Scrapy Spider,它接收URL列表,然后将其设置为“ start_urls”。
以上是 Running Scrapy spiders in a Celery task 的全部内容, 来源链接: utcz.com/qa/422054.html