在python Scrapy中执行SplashRequest时添加等待元素

我试图在python中使用Splash for Scrapy抓取一些动态网站。但是,在某些情况下,我发现Splash无法等待整个页面加载。解决此问题的蛮力方法是增加wait时间(例如,下面的代码段中为5秒)。但是,这种方法效率极低,并且仍然无法加载某些数据(有时需要花费5秒钟以上的时间才能加载内容)。这些请求中是否存在某种等待元素的条件?

yield SplashRequest(

url,

self.parse,

args={'wait': 5},

'User-Agent':"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.106 Safari/537.36",

}

)

回答:

是的,你可以编写一个Lua脚本来做到这一点。像这样:

function main(splash)

splash:set_user_agent(splash.args.ua)

assert(splash:go(splash.args.url))

-- requires Splash 2.3

while not splash:select('.my-element') do

splash:wait(0.1)

end

return {html=splash:html()}

end

在Splash 2.3之前,你可以使用splash:evaljs('!document.querySelector(".my-element")')代替not splash:select('.my-element')

将此脚本保存到变量(lua_script = """ ... """)。然后,你可以发送如下请求:

yield SplashRequest(

url,

self.parse,

endpoint='execute',

args={

'lua_source': lua_script,

'ua': "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.106 Safari/537.36"

}

}

以上是 在python Scrapy中执行SplashRequest时添加等待元素 的全部内容, 来源链接: utcz.com/qa/431931.html

回到顶部