老司机带你学爬虫——Python爬虫技术分享
什么是“爬虫”? 简单来说,写一个从web上获取需要数据并按规定格式存储的程序就叫爬虫; 爬虫理论上步骤很简单,第一步获取html源码,第二步分析html并拿到数据。但实际操作,老麻烦了~ 用Python写“爬虫”有哪些方便的库 常用网络请求库:requests、urllib、urllib2、 urllib和urllib2是Python自带模块,requests是第三方库 常用解析库和爬虫框架:BeautifulSoup、lxml、HTMLParser、selenium、Scrapy HTMLParser是Python自带模块; BeautifulSoup可以将html解析成Python语法对象,直接操作对象会非常方便; lxml可以解析xml和html标签语言,优点是速度快; selenium调用浏览器的driver,通过这个库你可以直接调用浏览器完成某些操作,比如输入验证码; Scrapy很强大且有名的爬虫框架,可以轻松满足简单网站的爬取;这个python学习(q-u-n):二二七,四三五,四五零 期待大家一起交流讨论,讲实话还是一个非常适合学习的地方的。软件各种入门资料 “爬虫”...