Python爬虫的常见依赖库大全

python

Splash

Splash是一个Javascript渲染服务。它是一个实现了HTTP API的轻量级浏览器,Splash是用Python实现的,是一个页面渲染服务器,返回渲染后的页面,便于爬取,便于规模应用。

很多人学习python,不知道从何学起。
很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。
很多已经做案例的人,却不知道如何去学习更加高深的知识。
那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!
QQ群:961562169

https://splash.readthedocs.io/en/stable/

文档地址:https://splash.readthedocs.io/en/stable/api.html

Scrapy

Scrapy是一个适用爬取网站数据、提取结构性数据的应用程序框架,它可以应用在广泛领域:Scrapy 常应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。通常我们可以很简单的通过 Scrapy 框架实现一个爬虫,抓取指定网站的内容或图片。尽管Scrapy原本是设计用来屏幕抓取(更精确的说,是网络抓取),但它也可以用来访问API来提取数据。

https://docs.scrapy.org/en/latest/

pyspider

一个国人编写的强大的网络爬虫系统并带有强大的WebUI。采用Python语言编写,分布式架构,支持多种数据库后端,强大的WebUI支持脚本编辑器,任务监视器,项目管理器以及结果查看器。

http://docs.pyspider.org/en/latest/

Selenium

Selenium是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。框架底层使用JavaScript模拟真实用户对浏览器进行操作。测试脚本执行时,浏览器自动按照脚本代码做出点击,输入,打开,验证等操作,就像真实用户所做的一样,从终端用户的角度测试应用程序。

Selenium 的核心,也称browser bot,是用 JavaScript 编写的。这使得测试脚本可以在受支持的浏览器中运行。browser bot 负责执行从测试脚本接收到的命令,测试脚本要么是用 HTML 的表布局编写的,要么是使用一种受支持的编程语言编写的。

https://www.selenium.dev/documentation/en/

文档地址:
https://selenium-python.readthedocs.io/index.html

Selenium依赖的WebDriver

  • chrome driver:https://chromedriver.chromium.org/downloads

Requests

Requests是一常用的http请求库,它使用python语言编写,可以方便地发送http请求,以及方便地处理响应结果。

https://requests.readthedocs.io/en/master/

Phantomjs

phantomjs实现了一个无界面的webkit浏览器。虽然没有界面,但dom渲染、js运行、网络访问、canvas/svg绘制等功能都很完备,在页面抓取、页面输出、自动化测试等方面有广泛的应用。

https://phantomjs.org/

Beautiful Soup

Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库,提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据

https://www.crummy.com/software/BeautifulSoup/bs4/doc/

pyquery

强大而灵活的网页解析库。如果你觉得正则写起来太麻烦,如果你觉得BeautifulSoup语法太难记,如果你熟悉jQuery的语法,那么PyQuery就是你的绝佳选择!!!

https://pythonhosted.org/pyquery/

tesserocr

Tesserocr是python的一个OCR识别库,但其实是对tesseract做的一层python API封装,可以用于验证码图片的识别。

https://github.com/sirfz/tesserocr

AIOHTTP

一个异步的 HTTP 客户端服务端框架,基于 asyncio 的异步模块。可用于实现异步爬虫,更快于 requests 的同步爬虫。

https://docs.aiohttp.org/en/stable/

Charles

Charles 是在 PC 端常用的网络封包截取工具,在做移动开发时,我们为了调试与服务器端的网络通讯协议,常常需要截取网络封包来分析。Charles 通过将自己设置成系统的网络访问代理服务器,使得所有的网络访问请求都通过它来完成,从而实现了网络封包的截取和分析。

https://www.charlesproxy.com/

mitmproxy

mitmproxy是一个支持HTTP和HTTPS的抓包程序,有类似Fiddler、Charles的功能,只不过它是一个控制台的形式操作。mitmproxy还有两个关联组件。一个是mitmdump,它是mitmproxy的命令行接口,利用它我们可以对接Python脚本,用Python实现监听后的处理。另一个是mitmweb,它是一个Web程序,通过它我们可以清楚观察mitmproxy捕获的请求。

https://mitmproxy.org/

Appium

selenium是web端的自动化,appium是app端的自动化。Appium 是一个自动化测试开源工具,支持iOS 平台和Android 平台上的原生应用,web 应用和混合应用。

http://appium.io/

相关推荐

Firefox数据采集插件大全python在linux下安装方法(解决旧版本冲突)Python爬取分析拉勾网职位数据Java使用lombok自动生成getter和setter方法2012年百度、腾讯、微软、奇虎360、人人、去哪网找工作经历总结[网址]在线转换编码-BASE64_URLENCODE等

以上是 Python爬虫的常见依赖库大全 的全部内容, 来源链接: utcz.com/z/530541.html

回到顶部