Python基础进阶之海量表情包多线程爬虫功能的实现

python教程

共 2094字,需浏览 5分钟

 ·

2020-12-20 10:22

这篇文章主要介绍了Python基础进阶之海量表情包多线程爬虫,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下

一、前言

在我们日常聊天的过程中会使用大量的表情包,那么如何去获取表情包资源呢?今天老师带领大家使用python中的爬虫去一键下载海量表情包资源

二、知识点

requests网络库
bs4选择器
文件操作
多线程

三、所用到得库

  1. import os

  2. import requests

  3. from bs4 import BeautifulSoup

四、 功能

  1. # 多线程程序需要用到的一些包

  2. # 队列

  3. from queue import Queue

  4. from threading import Thread

五、环境配置

解释器 python3.6
编辑器 pycharm专业版 激活码

六、多线程类代码

  1. # 多线程类

  2. class Download_Images(Thread):

  3. # 重写构造函数

  4. def __init__(self, queue, path):

  5. Thread.__init__(self)

  6. # 类属性

  7. self.queue = queue

  8. self.path = path

  9. if not os.path.exists(path):

  10. os.mkdir(path)

  11. def run(self) -> None:

  12. while True:

  13. # 图片资源的url链接地址

  14. url = self.queue.get()

  15. try:

  16. download_images(url, self.path)

  17. except:

  18. print('下载失败')

  19. finally:

  20. # 当爬虫程序执行完成/出错中断之后发送消息给线程 代表线程必须停止执行

  21. self.queue.task_done()

七、爬虫代码

  1. # 爬虫代码

  2. def download_images(url, path):

  3. headers = {

  4. 'User-Agent':

  5. 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'

  6. }

  7. response = requests.get(url, headers=headers)

  8. soup = BeautifulSoup(response.text, 'lxml')

  9. img_list = soup.find_all('img', class_='ui image lazy')

  10. for img in img_list:

  11. image_title = img['title']

  12. image_url = img['data-original']

  13.  

  14. try:

  15. with open(path + image_title + os.path.splitext(image_url)[-1], 'wb') as f:

  16. image = requests.get(image_url, headers=headers).content

  17. print('正在保存图片:', image_title)

  18. f.write(image)

  19. print('保存成功:', image_title)

  20. except:

  21. pass

  22.  

  23. if __name__ == '__main__':

  24. _url = 'https://fabiaoqing.com/biaoqing/lists/page/{page}.html'

  25. urls = [_url.format(page=page) for page in range(1, 201)]

  26. queue = Queue()

  27. path = './threading_images/'

  28. for x in range(10):

  29. worker = Download_Images(queue, path)

  30. worker.daemon = True

  31. worker.start()

  32. for url in urls:

  33. queue.put(url)

  34. queue.join()

  35. print('下载完成...')

八、爬取效果图片

到此这篇关于Python基础进阶之海量表情包多线程爬虫的文章就介绍到这了

扫下方二维码加老师微信

或是搜索老师微信号:XTUOL1988【切记备注学习Python】

领取Python web开发,Python爬虫,Python数据分析,人工智能等学习教程。带你从零基础系统性的学好Python!

也可以加老师建的Python技术学习教程qq裙:245345507二者加一个就可以!

欢迎大家点赞,留言,转发,转载,感谢大家的相伴与支持

万水千山总是情,点个【在看】行不行

*声明:本文于网络整理,版权归原作者所有,如来源信息有误或侵犯权益,请联系我们删除或授权事宜

浏览 36
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报