python简单应用!用爬虫来采集天猫所有优惠券信息,写入本地文件
今天给大家分享一个小网站的数据采集,并写到excel里面! 分析网站 目标网站是“小咪购”,这里有天猫所有的含有购物券的商品信息,我们今天就来抓它吧! 随便找一段文字,然后点击右键查看网页源代码,看看是否存在该文字,如果存在,那么这个网页就是静态网站了!很幸运,这个网站居然是静态的。 那就简单了,不需要去分析ajax加载数据或者找json包了,直接获取网页源代码==>>匹配相关内容==>>保存数据即可! 工具和库 Windows+python3.6 import random import time import requests from lxml import etree import xlwt 用这几个库就可以搞定了!注意xlwt和xlrd这2个库都是操作excel的,一个是保存数据,一个是读取数据,不要搞混了。 开始写代码 首先写一个函数,将所有的爬虫工作写到函数里,如下图 这个网站需要写上headers,不写是抓不到数据的!新建一个列表,将爬到的相关数据写入列表,它的形式大概是这样的:【【产品信息A1,2,3……】,【产品信息B1,2,3……】……】,...