目标反爬虫怎么办?实践出真知-scrapy集成动态ip代理(以阿布云为例)
一、前言
在爬虫行当,每天都要面对目标反爬虫技术,我们想要拿到数据,就需要针对它们的反爬虫来制定绕过方法,比如它识别你的UserAgent,那你可能就需要伪造、它限制IP请求次数,你可能就需要限速或者改变ip、它用验证码来识别你是人是机,你就需要模拟人的操作并且正确填写它给你弹出的验证码等等。
这里我以实际项目举例:有个项目需要爬取中国证券协会,对方使用的反爬虫手段中就有IP请求次数的限制,因为我需要的数据比较多,而且目标的数据很绕,所以我紧紧降低我爬虫的速度我觉得对我影响很大,所以我选择通过动态ip切换来应对,我需要在scrapy中实现ip自动切换,才能够在客户要求的时间内完成爬取任务。
在此之前,我用过第三方库scrapy-proxys加上芝麻ip的代理api接口,可能是之前代码没有调整好,导致的没有能够成功。(后面有机会再测试)。
二、阿布云范例
阿布云官方给出了python和scrapy的示例代码
文档python3示例
from urllib import request
# 要访问的目标页面
targetUrl = "http://test.abuyun.com/proxy.php"
# 代理服务器
proxyHost = "http-dyn.abuyun.com"
proxyPort = "9020"
# 代理隧道验证信息
proxyUser = "H01234567890123D"
proxyPass = "0123456789012345"
proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
"host" : proxyHost,
"port" : proxyPort,
"user" : proxyUser,
"pass" : proxyPass,
}
proxy_handler = request.ProxyHandler({
"http" : proxyMeta,
"https" : proxyMeta,
})
#auth = request.HTTPBasicAuthHandler()
#opener = request.build_opener(proxy_handler, auth, request.HTTPHandler)
opener = request.build_opener(proxy_handler)
request.install_opener(opener)
resp = request.urlopen(targetUrl).read()
print (resp)
上面的是官方提供的python原生写法,下面还有官方提供的scrapy写法:
文档scrapy示例
import base64
# 代理服务器
proxyServer = "http://http-dyn.abuyun.com:9020"
# 代理隧道验证信息
proxyUser = "H012345678901zyx"
proxyPass = "0123456789012xyz"
# for Python2
proxyAuth = "Basic " + base64.b64encode(proxyUser + ":" + proxyPass)
# for Python3
#proxyAuth = "Basic " + base64.urlsafe_b64encode(bytes((proxyUser + ":" + proxyPass), "ascii")).decode("utf8")
class ProxyMiddleware(object):
def process_request(self, request, spider):
request.meta["proxy"] = proxyServer
request.headers["Proxy-Authorization"] = proxyAuth
这里在scrapy项目中的Middleware里面写即可。
三、正式集成
将它集成到scrapy框架中,那就在项目工程的middlewares.py中新增类及key等信息:
import base64
""" 阿布云ip代理key配置 """
proxyServer = "http://http-dyn.abuyun.com:9020"
proxyUser = "HWFHQ5YP14Lxxx"
proxyPass = "CB8D0AD56EAxxx"
# for Python3
proxyAuth = "Basic " + base64.urlsafe_b64encode(bytes((proxyUser + ":" + proxyPass), "ascii")).decode("utf8")
class ABProxyMiddleware(object):
""" 阿布云动态ip代理中间件 """
def process_request(self, request, spider):
request.meta["proxy"] = proxyServer
request.headers["Proxy-Authorization"] = proxyAuth
然后再到settings.py中启用刚才编写的中间件:
DOWNLOADER_MIDDLEWARES = {
#'Securities.middlewares.SecuritiesDownloaderMiddleware': None,
'Securities.middlewares.ABProxyMiddleware': 1,
}
四、注意事项
阿布云动态ip默认是1秒钟请求5次,(可以加钱,购买多次)。所以,当他是默认5次的时候,我需要对爬虫进行限速,还是在settings.py中,空白处新增如下代码:
""" 启用限速设置 """
AUTOTHROTTLE_ENABLED = True
AUTOTHROTTLE_START_DELAY = 0.2 # 初始下载延迟
DOWNLOAD_DELAY = 0.2 # 每次请求间隔时间
当然了,如果你加钱增加每秒次数的话,可以不用考虑限速的问题。
最后
即可完成阿布云动态代理ip在scrapy中的的集成,尽情的爬吧!
学习是一通百通的,既然阿布云平台的示例代码可以集成到框架中,那么其他平台的示例代码同样可以集成到框架中使用,我就不多写了。
如果你想真的学会这个技巧,你就应该自己去实践,自己动手编写代码并测试,才能够掌握在自己手中。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
Android与汽车
大家最熟悉的Android系统应该是手机和平板设备上的,大部分人可能没想过Android系统和汽车有什么关系。但实际上,Android系统在四年前就在布局汽车这个平台。我最近对相关内容做了一些了解。下面将我所了解到的信息分享给大家。 Android Auto是一个Android端的App,是专门为驾驶环境而设计的。 运行Android Auto需要Android 5.0或更高版本的系统,并且还需要Google地图和Google Play 音乐应用。 Android Auto可以用来将Android设备上的部分功能映射到汽车屏幕上。 Android Auto在2014的Google I/O上首次亮相。相应的App:Android Auto在2015年3月19日发布。 当Android Auto接到汽车屏幕上其界面看起来是下面这个样子: 当然,也
-
下一篇
杨老师课堂之JavaWeb体系的MVC与三层架构有什么区别
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/kese7952/article/details/81024892 首先,声明一下,三层是三层,MVC是MVC,这俩是毫无关系的。 三层是从整个应用程序架构的角度来分的三层(如果程序需要,还可以分多层)。 三层架构通常包括表示层,业务逻辑层以及数据访问层。虽然三层架构将系统在逻辑上分成了三层,但是它并不是物理上的分层。也就是说,对不同层的代码而言,经历编译、打包、部署后,所有的代码最终还是运行在同一个进程中。 MVC是一种设计模式,一种思想,是存在于应用程序(B/S结构:又称之浏览器/服务器)的视图层划分出来的不同功能的几个模块。 MVC主要是为了解决应用程序用户界面的样式替换问题,把展示数据的 HTML 页面尽可能的和业务代码分离。MVC把纯净的界面展示逻辑(用户界面)独立到一些文件中(Views),把一些和用户交互的程序逻辑(Controller)单独放在一些文件中,在 Views 和 Controller 中传递数据使用一些专门封装数据的实体对象,这些对象,统称为Models。 只所...
相关文章
文章评论
共有0条评论来说两句吧...