Python基础进阶之海量表情包多线程爬虫[Python基础]

python

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理

一、前言

在我们日常聊天的过程中会使用大量的表情包,那么如何去获取表情包资源呢?今天老师带领大家使用python中的爬虫去一键下载海量表情包资源

二、知识点

requests网络库
bs4选择器
文件操作
多线程

三、所用到得库

import os

import requests

from bs4 import BeautifulSoup

四、 功能

# 多线程程序需要用到的一些包

# 队列

from queue import Queue

from threading import Thread

五、环境配置

解释器 python3.6
编辑器 pycharm专业版 激活码

六、多线程类代码

# 多线程类

class Download_Images(Thread):

# 重写构造函数

def__init__(self, queue, path):

Thread.__init__(self)

# 类属性

self.queue = queue

self.path = path

ifnot os.path.exists(path):

os.mkdir(path)

def run(self) -> None:

while True:

# 图片资源的url链接地址

url = self.queue.get()

try:

download_images(url, self.path)

except:

print("下载失败")

finally:

# 当爬虫程序执行完成/出错中断之后发送消息给线程 代表线程必须停止执行

self.queue.task_done()

七、爬虫代码

# 爬虫代码

def download_images(url, path):

headers = {

"User-Agent":

"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36"

}

response = requests.get(url, headers=headers)

soup = BeautifulSoup(response.text, "lxml")

img_list = soup.find_all("img", class_="ui image lazy")

for img in img_list:

image_title = img["title"]

image_url = img["data-original"]

try:

with open(path + image_title + os.path.splitext(image_url)[-1], "wb") as f:

image = requests.get(image_url, headers=headers).content

print("正在保存图片:", image_title)

f.write(image)

print("保存成功:", image_title)

except:

pass

if__name__ == "__main__":

_url = "https://fabiaoqing.com/biaoqing/lists/page/{page}.html"

urls = [_url.format(page=page) for page in range(1, 201)]

queue = Queue()

path = "./threading_images/"

for x in range(10):

worker = Download_Images(queue, path)

worker.daemon = True

worker.start()

for url in urls:

queue.put(url)

queue.join()

print("下载完成...")

八、爬取效果图片

以上是 Python基础进阶之海量表情包多线程爬虫[Python基础] 的全部内容, 来源链接: utcz.com/z/530370.html

回到顶部