技术 | Python从零开始系列连载(二十九)
写爬虫防止被封的关键有以下几点:
● 伪装请求报头(request header)● 减轻访问频率,速度
● 使用代理IP
一般第一点都能做到,第二点减轻访问频率就会大大增加任务时间,而使用代理就能在不增加任务时长避免被封的关键(实际情况却是任务时间因为代理的使用而增加的,但这里不细说,知道就好)。
下面我们从 国内高匿代理IP 获得代理IP数据。
import os
import time
import requests
from bs4 import BeautifulSoup
#num获取num页 国内高匿ip的网页中代理数据
def fetch_proxy(num):
#修改当前工作文件夹
os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')
api = 'http://www.xicidaili.com/nn/{}'
header = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_3) AppleWebKit/'
'537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36'}
fp = open('host.txt', 'a+', encoding=('utf-8'))
for i in range(num+1):
api = api.format(1)
respones = requests.get(url=api, headers=header)
soup = BeautifulSoup(respones.text, 'lxml')
container = soup.find_all(name='tr',attrs={'class':'odd'})
for tag in container:
try:
con_soup = BeautifulSoup(str(tag),'lxml')
td_list = con_soup.find_all('td')
ip = str(td_list[1])[4:-5]
port = str(td_list[2])[4:-5]
IPport = ip + '\t' + port + '\n'
fp.write(IPport)
except Exception as e:
print('No IP!')
time.sleep(1)
fp.close()
我们准备抓 国内高匿代理IP网 的十个页面的代理
fetch_proxy(10)
当前工作目录下的文件,你看!!有host.txt
打开host.txt,收集到了很多代理IP
但是有代理IP还不行,因为我们不知道这代理能不能用,是否有效。
下面我们用百度网进行检验(大公司不怕咱们短时间内高频率访问),上代码:
import os
import time
import requests
from bs4 import BeautifulSoup
def test_proxy():
N = 1
os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')
url = 'https://www.baidu.com'
fp = open('host.txt', 'r')
ips = fp.readlines()
proxys = list()
for p in ips:
ip = p.strip('\n').split('\t')
proxy = 'http:\\' + ip[0] + ':' + ip[1]
proxies = {'proxy': proxy}
proxys.append(proxies)
for pro in proxys:
try:
s = requests.get(url, proxies=pro)
print('第{}个ip:{} 状态{}'.format(N,pro,s.status_code))
except Exception as e:
print(e)
N+=1
运行该代码,效果如下
代理Ip池生成函数
#生成代理池子,num为代理池容量
def proxypool(num):
n = 1
os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')
fp = open('host.txt', 'r')
proxys = list()
ips = fp.readlines()
while n<num:
for p in ips:
ip = p.strip('\n').split('\t')
proxy = 'http:\\' + ip[0] + ':' + ip[1]
proxies = {'proxy': proxy}
proxys.append(proxies)
n+=1
return proxys
下面开始爬豆瓣电影的电影数据,我们要获取 电影名、演员、评分。
电影标签页 https://movie.douban.com/tag/
烂片详情页https://movie.douban.com/tag/烂片
烂片详情页
我们就只爬烂片标签页的部分数据吧,网页链接规律如下
第一页https://movie.douban.com/tag/烂片?start=0
第二页https://movie.douban.com/tag/烂片?start=20
第三页https://movie.douban.com/tag/烂片?start=40
开始上代码
def fetch_movies(tag, pages, proxys):
os.chdir(r'/Users/apple888/PycharmProjects/proxy IP/豆瓣电影')
url = 'https://movie.douban.com/tag/爱情?start={}'
headers = {
'User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/'
'537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Mobile Safari/537.36'}
#用csv文件保存数据
csvFile = open("{}.csv".format(tag), 'a+', newline='', encoding='utf-8')
writer = csv.writer(csvFile)
writer.writerow(('name', 'score', 'peoples', 'date', 'nation', 'actor'))
for page in range(0, pages*(20+1), 20):
url = url.format(tag, page)
try:
respones = requests.get(url, headers=headers, proxies=random.choice(proxys))
while respones.status_code!=200:
respones = requests.get(url, headers=headers, proxies=random.choice(proxys))
soup = BeautifulSoup(respones.text, 'lxml')
movies = soup.find_all(name='div', attrs={'class': 'pl2'})
for movie in movies:
movie = BeautifulSoup(str(movie), 'lxml')
movname = movie.find(name='a')
# 影片名
movname = movname.contents[0].replace(' ', '').strip('\n').strip('/').strip('\n')
movInfo = movie.find(name='p').contents[0].split('/')
# 上映日期
date = movInfo[0][0:10]
# 国家
nation = movInfo[0][11:-2]
actor_list = [act.strip(' ').replace('...', '') for act in movInfo[1:-1]]
# 演员
actors = '\t'.join(actor_list)
# 评分
score = movie.find('span', {'class': 'rating_nums'}).string
# 评论人数
peopleNum = movie.find('span', {'class': 'pl'}).string[1:-4]
writer.writerow((movname, score, peopleNum, date, nation, actors))
except:
continue
print('共有{}页,已爬{}页'.format(pages, int((page/20))))
执行上述写好的代码
import time
start = time.time()
proxyPool= proxypool(50)
fetch_movies('烂片', 111, proxyPool)
end = time.time()
lastT = int(end-start)
print('耗时{}s'.format(lastT))
Perfect
原文发布时间为:2018-11-16
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
《阿里巴巴 Java开发手册》读后感
前言 只有光头才能变强 前一阵子一直在学Redis,结果在黄金段位被虐了,暂时升不了段位了,每天都拿不到首胜(好烦)。 趁着学校校运会,合理地给自己放了一个小长假,然后就回家了。回到家才发现当时618买了一堆书,这堆书还有没撕包装的呢....于是我翻出了最薄的一本《阿里巴巴 Java开发手册》 这本书一共就90多页,一天就可以通读完了,看完之后我又来水博文了。 注意: 书上很多的规范是可以用IDE来避免的,也有很多之前已经知道的了。 所以,这篇文章只记录我认为比较重要,或者说是我之前开发时没有注意到的一些规范(知识点)。 该文章的内容肯定没有书上写得那么全的,如果感兴趣的同学可以去买一本来读一下~ PDF官方地址: https://github.com/alibaba/p3c 一、Java相关 POJO是DO/DTO/BO/VO的统称,禁止命名为xxxPOJO 获取多个对象的方法中list作为前缀 获取统计值的方法用count作为前缀 POJO类中的布尔类型(Boolean)的变量都不要加is前缀,否则部分框架解析会引起序列化错误 如果你的变量名带is的话,比如isActive,框架解...
- 下一篇
关于网络爬虫的资料整合
关于通用爬虫的介绍 前言:我们生活在一个充满数据的时代。每天,来自商业、社会以及我们的日常生活所产生「图像、音频、视频、文本、定位信息」等各种各样的海量数据,注入到我们的万维网(WWW)、计算机和各种数据存储设备,其中万维网则是最大的信息载体。数据的爆炸式增长、规模庞大和广泛可用的数据,使得我们真正进入到了“大数据(Big Data)时代”。我们急需功能强大的数据处理技术(Data Technology),从这些海量数据中发现有价值的信息。网络爬虫(Web Crawler)技术,则成为了当下万维网数据(Web Data)收集中,最为高效灵活的解决方案。什么是网络爬虫?网络爬虫 获取数据方式主要有哪些? 1:企业产生的数据:百度搜索指数、腾讯公司业绩数据、阿里巴巴集团财务及运营数据、新浪微博微指数等.... 大型互联网公司拥有海量用户,有天然的数据积累优势,还有一些有数据意识的中小型企业,也开始积累自己的数据。2:数据平台购买数据:数据堂、国云数据市场、贵阳大数据交易所 等... 在各个数据交易平台上购买各行各业各种类型的数据,根据数据信息、获取难易程度的不同,价格也会有所不同。3:政府...
相关文章
文章评论
共有0条评论来说两句吧...