pyspider爬取王者荣耀数据(上)

共 3472字,需浏览 7分钟

 ·

2019-12-23 23:22

咪哥杂谈

85d90491c0939eb5c82c0589840c5fba.webp

本篇阅读时间约为 8 分钟。


1

前言


不知道还有多少人记得几个月前写的两篇文章,介绍关于 PyQuery 入门使用的教程。忘记的朋友,可以去回顾下用法:


爬虫神器之 PyQuery 实用教程(一)

爬虫神器之PyQuery实用教程(二),50行代码爬取穷游网


在之前的某一期文章下面,我记得有过一次留言,说是要安排一下王者荣耀的数据爬取,并且是使用 PySpider 爬虫框架。


那么,今天就带来一篇关于 pyspider 的入门教程


题外话:


对于王者荣耀这种电竞类游戏来说,为什么有些人能轻松上王者?而有些人却一直停留在低段位?无非就是没有了解过规则,以及其背后的数据罢了。


一款游戏,对于数据和规则熟知于心,那么,上分是轻轻松松的事儿。


作为一个电竞游戏从初中开始玩的人来说,从 dota1 到 lol,再到后来的 dota2,最后到移动端的王者荣耀,每次都是将数据与规则了解后,才得心应手的去上分。


放上我的王者荣耀段位图,秀一波151790fad37e7b32087514451ca6c230.webp


504a46057ebb2ffd67b8700cda7869fc.webp


6e7e7ba22911b5e500ba021711580089.webp


当然,如果有时间的话,欢迎大家来找我一起玩b974bb4ad11bc12ed46177e0be7918a0.webp~可以一起排位。下面进入正题。
今天这篇,爬取的网站数据包括技能,英雄属性数值,推荐装备等。


因为英雄详情属性数据没有找到官方提供的,所以特意找到了一个第三方游戏网站,本次仅是爬取数据,后面打算用本次的数据做个分析。


2

准备工作


先来介绍下什么是 pyspider?为什么要用 pyspider
1. 什么是 pyspiderf8b41bc8ace50c55250681dbbcc595dd.webp


2. 为什么要用 pyspider

pyspider是一款优秀的框架,并配有 WebUI 的界面。
平时我们写爬虫时,只能是自己从零开始不断地搭建代码,但是有没有发现,当你写了很多爬虫时候,有些逻辑无非就是在修改获取节点元素的规则,其它代码是不用做修改的。
这样一来,每次都要重复的去写一些相同的代码,不仅枯燥,且浪费时间。在这样的场景下,框架才会诞生出来。
只需要你对变化的东西进行“填充”即可,其余相同的地方,框架帮你做。
对于框架来说,学习成本也各不相同,比如知名的爬虫框架 scrapy ,相对于新手来说,可能难度就大一些。 
而 pyspider 自带了一个页面,可以实时调试,对于初学者来说,上手容易,脚本编写规则也非常简单。
介绍就到此结束了。


3

确定爬取目标


先来看下王者荣耀第三方网站首页:


http://db.18183.com/wzry/

18183王者荣耀


9090d5c1c686a3228c1eb8f2ee5cd450.webp


e8a6606928101aa0099176c576ca1f77.webp

237e80a82a5d95cfeb823f8cbb4c6c74.webp

d0754ddbce1d377a204383f01020a502.webp


红框即爬取目标,整理一下,具体有:


  • 每个英雄简介
  • 技能介绍描述
  • 推荐技能加点
  • 英雄出装建议
  • 英雄属性数值


4

pyspider入门


1. 安装 pyspider 库


开始介绍入门之前,先来安装下它。


pip install pyspider


安装完成后,以命令行的形式去执行 pyspider ,让它启动服务。


fa755e60b84bde7433df5b4eae75b67b.webp


2. 启动服务
启动后,打开浏览器,输入 http://localhost:5000 ,可以看到下图:


2edae508da94633b57813613361c1b86.webp

看到此页面,说明 pyspider 初始化启动完成。
3. 创建任务
点击 create 按钮,创建新工程任务。name 随意写,start url 写我们要爬取的首页即可。


9c578f62eba51efd5ca4ef074d1330f3.webp


4. 自动生成代码


65391b7cb20078b9f9515be4904332d9.webp


cf1ceb966a76199cb78378b1e1089675.webp

细看一下自动生成的代码。

Handler类里有 3 个方法,分别是 on_start,index_page,detail_page 方法,每个方法上面有着自己的装饰器。

  • on_start():启动后进入的第一个方法,主 url 在此处被请求,响应会传入 callback 后面的 index_page 函数中。


  • index_page():主 url 返回的响应源码进入到此函数到 response 里,其中 reponse.doc 用到了 PyQuery 语法,用来匹配你想要的信息节点,继续传入到下一个详情页中。

  • detail_page():处理最后的具体逻辑,当然你也可以继续类似上面的回调,主要看你要抓取的信息到底在多少层的页面中。



分析下王者荣耀的官网,我们需要的信息:

3eee671683f8d0d872cf7020b4632739.webp


以下,首页到鲁班大师详情页为例:


8d562b552f9c678068bb9b124eb95c04.webp


点击 run 后,看到 followers 下有个红色数字1,说明请求到了,点过去看下。

7d160c0826a0113ba3312d8293156394.webp


920b442443a245183f9f93418f068b2d.webp


点击运行后的瞬间,可以看到 pyspider 自动为我们识别出了首页的 126 条超链接,但是我想要的仅仅是英雄列表中的每个英雄的 url 地址。
所以,接下来就要发挥 pyspider 的便捷之处了。

点击到 web ,即可实时看到首页:

208a69ac06c32ac07db916f8f4b92c96.webp


点击 css selector helper ,即 css 选择器帮助。

643d55d6b321fba2a03fcc120de7dbd1.webp


如果之前用过 webscrape 插件的同学(爬虫工具(二) webscraper 教程 (知乎案例)),一定很熟悉这个场景,手动选择你想要的节点,然后系统自动生成。

点击 css 样式的右箭头, 网页自动将 css 代码帮你替换到你光标放置的右侧代码位置:

488ae4e5bbc60a9ecd3ef52672515dda.webp


顺便,打印下 each ,看下结果。
打印发现,这并不是我们想要的 li 节点,所以继续进一步提取。


可以看到此行 div 里包含的 li 标签,而 li 标签中又包含了 a 标签。
于是,提取如下:
def index_page(self, response):    print(response)    for each in response.doc('.hero-result-box>ul>li').items():        print(each('a').attr('href'))        a = each('a')        self.crawl(a.attr.href, callback=self.detail_page)

fc29d148e15c798934d31e8abdc58957.webp


其实,熟悉 PyQuery 语法的朋友,一定很容易就写出来了,这里给新手朋友放个思维导图吧,也许你看了图就明白了,不过多文字解释了:

e8e77a697bfb0195bf1fb330088b7bd1.webp


像不像一个沙漏!让我想起了营销学提到的漏斗模型,感兴趣的同学可以自行查下资料了解。
当然,以上过程,如果你不习惯用 pyspider 给你提供的,也可以用 Chrome 等浏览器自带的开发者工具自行调试。


关于详情页,这里只以抓取头像,姓名,定位来举例:
这里使用 css helper 去直接点我们想要的节点,然后移动 css 代码到右侧代码,很容易写出爬取节点:
def detail_page(self, response):    name = response.doc('h1').text()    img = response.doc('.name > img').attr('src')    position = response.doc('.name-box > p').text()    return {        "url": response.url,        "name": name,        "img": img,        "position": position        }

结果:

f83876b3b06df5cb9ab7b4faa4d43c86.webp


直到这里一切都顺利,但是让我疑惑的是头像的图片为什么是 gif 地址?访问下,一看这图片一直在转圈啊!

fa41714afaa30bf17aca81ef38d4ccd6.webp


对于图片源地址来说,我们还是用自带的浏览器来调试,方便观察。



56de87b6e703ddc4a457e0cba0a7be27.webp


经过用开发者工具的这么一看,源地址应该是这个才对,怎么一直加载不出来?再仔细观察爬取到的地址:

http://js.18183.com/uploads/pc/yxzjol/sjk/loading.gif

和 js 肯定有关系,果不其然,这里遇到了图片的优化机制,图片懒加载。此机制也可以当做反爬虫机制的一种,隐藏了真实的图片地址。

图片懒加载是一种网页优化技术。图片作为一种网络资源,在被请求时也与普通静态资源一样,将占用网络资源,而一次性将整个页面的所有图片加载完,将大大增加页面的首屏加载时间。

网络


那么,如何找到图片的真实地址?这就得去看 js 如何写的了!
拉到详情页最下方,看到有个懒加载的 js 。无疑就是它了!

76ef42dbe19a1da8a8c3515a8463355b.webp


点过去看下,可以看到有段这样的代码:

6f6eacb6d852035d30ddc516b2dbe887.webp


结合上下文看这段 js 代码,最终能猜出, img 的真实地址属性标签应为:"data-original"。
那么,来试一下:

a3c3768439f32c988a0e6b49b70c6122.webp

016c1b35bb590e19390b47826f5d2f9c.webp


可以看到成功了。

5

结语


以上,便是 pyspider 爬取的入门教程了,当然,这只是抓取的步骤,数据离不开落地,下一篇,讲下如何数据落地,并且提供源码和这次抓取到的数据。
本篇内容高达 2500+ 字,如果看懂了,欢迎分享给身边对爬虫感兴趣的其他人看哟!顺便支持下点个好看呗,给点动力~30ebb1250c5c47f2935d26e5b1bb3ae3.webp30ebb1250c5c47f2935d26e5b1bb3ae3.webp





▼往期精彩回顾▼本期无推荐,推荐内容都在文中,回顾即可。

34b520b604d3e03a6758087ab2f5cbaa.webp你点的每个在看,我都认真当成了喜欢


浏览 66
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报