如何结合使用scrapy和htmlunit来使用javascript抓取网址

我正在Scrapy上进行网页爬网,但是我无法使用javascript处理网页。人们建议我使用htmlunit,所以我安装了它,但是我根本不知道如何使用它。剂量有人可以给我一个例子(scrapy + htmlunit)吗?非常感谢。

回答:

下面是一个在下载处理程序中间件中使用selenium和phantomjs headless webdriver的工作示例。

class JsDownload(object):

@check_spider_middleware

def process_request(self, request, spider):

driver = webdriver.PhantomJS(executable_path='D:\phantomjs.exe')

driver.get(request.url)

return HtmlResponse(request.url, encoding='utf-8', body=driver.page_source.encode('utf-8'))

我希望能够告诉不同的Spider使用哪个中间件,因此我实现了这个包装器:

def check_spider_middleware(method):

@functools.wraps(method)

def wrapper(self, request, spider):

msg = '%%s %s middleware step' % (self.__class__.__name__,)

if self.__class__ in spider.middleware:

spider.log(msg % 'executing', level=log.DEBUG)

return method(self, request, spider)

else:

spider.log(msg % 'skipping', level=log.DEBUG)

return None

return wrapper

settings.py:

DOWNLOADER_MIDDLEWARES = {'MyProj.middleware.MiddleWareModule.MiddleWareClass': 500}

为了使包装工作,所有spider必须至少具有:

middleware = set([])

包括中间件:

middleware = set([MyProj.middleware.ModuleName.ClassName])

以这种方式而不是在spider网中实现它的主要优点是,你最终只会发出一个请求。例如,在reclosedev的第二个链接的解决方案中:下载处理程序处理请求,然后将响应传递给spider。然后,spider程序会在其parse_page函数中提出一个全新的请求-这是对相同内容的两个请求。

以上是 如何结合使用scrapy和htmlunit来使用javascript抓取网址 的全部内容, 来源链接: utcz.com/qa/413511.html

回到顶部