失败了n次以后,我总结了5种爬虫伪装技巧!
共 3800字,需浏览 8分钟
·
2021-05-26 14:45
大家好,我是菜鸟哥,今天给大家聊一聊爬虫。
爬虫伪装的最高境界就是用代码模拟人的真实操作,因为网站设计出来就是为了让别人访问的,掌握爬虫的伪装技巧,能够让大大提高我们爬虫的成功率。
结合自身的经验,给大家介绍5种爬虫伪装的技巧,并把代码模板奉上,希望能够对你有所帮助。
1.浏览器伪装
因为网站服务器能够很轻易的识别出访问的来源浏览器,以requests请求为例,默认header头数据中没有浏览器信息,在与浏览器交互时简直就是“裸奔”,所以我们可以加入“User-Agent”信息伪装成真实浏览器,代码如下:
import requests
headers={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0'} #模拟成火狐浏览器
response = requests.get("http://www.baidu.com",headers=headers) #模拟请求url
2.访问地址伪装
访问地址指的是headers头部中的reffer信息,那么它有什么作用呢?举个例子解释一下:
我在https://bj.meituan.com/里有一个https://waimai.meituan.com/链接,那么点击这个https://waimai.meituan.com/,它的header信息里就有:Referer=https://bj.meituan.com/
那么可以利用这个来防止盗链,比如我只允许我自己的网站访问我自己的图片服务器
我们可以加入“reffer”信息伪装访问地址,代码如下:
import requests
headers={
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0',
'reffer':'https://bj.meituan.com/'}
response = requests.get("https://waimai.meituan.com/",headers=headers) #模拟请求url
3.ip地址伪装
对于网络中的反爬虫策略来说,大多数都是根据单个IP的行为来判断是不是网络爬虫的,例如,反爬虫检测到某个IP的访问次数很多,或者是访问的频率很快,就会封禁这个IP。这时我们就要选择代理IP来突破反爬虫的机制,更稳定的及逆行数据的爬取。python添加代理IP的代码如下:
import requests
proxies={'https':'101.236.54.97:8866'}
headers={
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0',
'reffer':'https://bj.meituan.com/'}
response = requests.get("https://waimai.meituan.com/",headers=headers,proxies=proxies) #模拟请求url
代理IP可以自己去网上找免费的,但不太稳定,也可去花钱买一些比较稳定的。
4.伪装访问速率
真实用户的访问次数以及访问规律是很稳定的,并不会多次的访问,所以我们要伪装成真实的用户来爬取数据,这样反爬虫机制就不会察觉,可以采用控制访问频率的方式,主要是随机设置访问时间,代码如下:
import requests
import time,random
proxies={'https':'101.236.54.97:8866'}
headers={
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0',
'reffer':'https://bj.meituan.com/'}
for i in range(10):
response = requests.get("https://waimai.meituan.com/",headers=headers,proxies=proxies) #模拟请求url
time.sleep(random.uniform(1.1,5.4))
5.伪装用户真实信息
有些网页是需要登录后才会显示数据,而cookie值会携带个人的登录信息,在爬虫中加入cookie值就能避免登录的麻烦,例如知乎、京东等网站,加入方法如下:
import requests
proxies={'https':'101.236.54.97:8866'}
headers={
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0',
'reffer':'https://bj.meituan.com/'}
cookies=''
response = requests.get("https://waimai.meituan.com/",headers=headers,proxies=proxies,,cookies=cookies) #模拟请求url
如果大家还有其他的爬虫伪装方式,欢迎在评论区留言交流!
推荐阅读:
入门: 最全的零基础学Python的问题 | 零基础学了8个月的Python | 实战项目 |学Python就是这条捷径
干货:爬取豆瓣短评,电影《后来的我们》 | 38年NBA最佳球员分析 | 从万众期待到口碑扑街!唐探3令人失望 | 笑看新倚天屠龙记 | 灯谜答题王 |用Python做个海量小姐姐素描图 |
趣味:弹球游戏 | 九宫格 | 漂亮的花 | 两百行Python《天天酷跑》游戏!
AI: 会做诗的机器人 | 给图片上色 | 预测收入 | 碟中谍这么火,我用机器学习做个迷你推荐系统电影
年度爆款文案
点阅读原文,领AI全套资料!