python各类爬虫案例,爬到你手软!
小编整理了一些爬虫的案例,代码都整理出来了~
先来看看有哪些项目呢:
python爬虫小工具(文件下载助手)
爬虫实战(笔趣看小说下载)
爬虫实战(VIP视频下载)
爬虫实战(百度文库文章下载)
爬虫实战(《帅啊》网帅哥图片下载)
爬虫实战(构建代理IP池)
爬虫实战(《火影忍者》漫画下载)
爬虫实战(财务报表下载小助手)
爬虫实战(抖音App视频下载)
爬虫实战(GEETEST验证码破解)
爬虫实战(12306抢票小助手)
爬虫实战(百万英雄答题辅助系统)
爬虫实战(网易云音乐批量下载)
爬虫实战(B站视频和弹幕批量下载)
爬虫实战(京东商品晒单图下载)
爬虫实战(正方教务管理系统爬虫)
怎么样?是不是迫不及待的想自己动手试试了呢?
在学习中有迷茫不知如何学习的朋友小编推荐一个学Python的学习q u n 227 -435- 450可以来了解一起进步一起学习!免费分享视频资料
爬虫小工具
文件下载小助手
一个可以用于下载图片、视频、文件的小工具,有下载进度显示功能。稍加修改即可添加到自己的爬虫中。
代码展示:
爬虫实战
《笔趣看》盗版小说网站,爬取小说工具
第三方依赖库安装:
pip3 install beautifulsoup4
使用方法:
python biqukan.py
代码展示:
爱奇艺等主流视频网站的VIP视频破解助手(暂只支持PC和手机在线观看VIP视频!)
运行源码需要搭建Python3环境,并安装相应第三方依赖库:
pip3 install -r requirements.txt
使用方法:
python movie_downloader.py
运行环境:
Windows, Python3
Linux, Python3
Mac, Python3
代码展示:
百度文库word文章爬取
代码不完善,没有进行打包,不具通用性,纯属娱乐,以后有时间会完善。
代码展示:
爬取《帅啊》网,帅哥图片
运行平台: Windows
Python版本: Python3.x
IDE: Sublime text3
为了也能够学习到新知识,本次爬虫教程使用requests第三方库,这个库可不是Python3内置的urllib.request库,而是一个强大的基于urllib3的第三方库。
代码展示:
构建代理IP池
代码展示:
使用Scrapy爬取《火影忍者》漫画
代码可以爬取整个《火影忍者》漫画所有章节的内容,保存到本地。更改地址,可以爬取其他漫画。保存地址可以在代码中修改。
代码展示:
《王者荣耀》推荐出装查询小助手
网页爬取已经会了,想过爬取手机APP里的内容吗?
代码展示:
财务报表下载小助手
爬取的数据存入数据库会吗?《跟股神巴菲特学习炒股之财务报表入库(MySQL)》也许能给你一些思路。
代码展示:
抖音App视频下载
抖音App的视频下载,就是普通的App爬取。
代码展示:
GEETEST验证码破解
爬虫最大的敌人之一是什么?没错,验证码!Geetest作为提供验证码服务的行家,市场占有率还是蛮高的。遇到Geetest提供的滑动验证码怎么破?授人予鱼不如授人予渔,接下来就为大家呈现本教程的精彩内容。
代码展示:
用Python抢火车票简单代码
可以自己慢慢丰富,蛮简单,有爬虫基础很好操作。
代码展示:
baiwan:百万英雄辅助答题
看了网上很多的教程都是通过OCR识别的,这种方法的优点在于通用性强。不同的答题活动都可以参加,但是缺点也明显,速度有限,并且如果通过调用第三方OCR,有次数限制。但是使用本教程提到的数据接口。我们能很容易的获取数据,速度快,但是接口是变化的,需要及时更新。
代码展示:
功能介绍:
服务器端,使用Python(baiwan.py)通过抓包获得的接口获取答题数据,解析之后通过百度知道搜索接口匹配答案,将最终匹配的结果写入文件(file.txt)。
Node.js(app.js)每隔1s读取一次file.txt文件,并将读取结果通过socket.io推送给客户端(index.html)。
亲测答题延时在3s左右。
声明:没做过后端和前端,花了一天时间,现学现卖弄好的,javascript也是现看现用,百度的程序,调试调试而已。可能有很多用法比较low的地方,用法不对,请勿见怪,有大牛感兴趣,可以自行完善。
Netease:根据歌单下载网易云音乐
功能介绍:
根据music_list.txt文件里的歌单的信息下载网易云音乐,将自己喜欢的音乐进行批量下载。
代码展示:
bilibili:B站视频和弹幕批量下载
下载B站视频和弹幕,将xml原生弹幕转换为ass弹幕文件,支持plotplayer等播放器的弹幕播放。
代码展示:
使用说明:
python bilibili.py -d 猫 -k 猫 -p 10
三个参数:
-d保存视频的文件夹名
-kB站搜索的关键字
-p下载搜索结果前多少页
京东商品晒单图下载
使用说明:
python jd.py -k 芒果
三个参数:
-d保存图片的路径,默认为fd.py文件所在文件夹
-k搜索关键词
-n 下载商品的晒单图个数,即n个商店的晒单图
代码展示:
对正方教务管理系统个人课表,学生成绩,绩点等简单爬取
依赖环境
python 3.6
python库
http请求:requests,urllib
数据提取:re,lxml,bs4
存储相关:os,sys
验证码处理:PIL
下载安装
在终端输入如下命令:
git clone git@github.com:Jack-Cherish/python-spider.git
使用方法
安装依赖包
pip install -r requirements.txt
运行
在当前目录下输入:
cd zhengfang_system_spider
python spider.py
运行爬虫,按提示输入学校教务网,学号,密码,输入验证码
稍等几秒钟,当前ZhengFang_System_Spider文件夹下就会生成zhengfang.txt
个人课表,成绩绩点均已保存到该文本文件中
代码展示:
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
关于Scrapy爬虫项目运行和调试的小技巧(上篇)
扫除运行Scrapy爬虫程序的bug之后,现在便可以开始进行编写爬虫逻辑了。在正式开始爬虫编写之前,在这里介绍四种小技巧,可以方便我们操纵和调试爬虫。 一、建立main.py文件,直接在Pycharm下进行调试 很多时候我们在使用Scrapy爬虫框架的时候,如果想运行Scrapy爬虫项目的话,一般都会想着去命令行中直接执行命令“scrapy crawl crawler_name”,其中crawler_name指的是爬虫的名字,在一开始创建Scrapy爬虫模板的时候就指定了的,而且在该爬虫项目中具有唯一性。但是每次跑到命令行下去执行,看交互的结果,有时候并不是很清晰,所以这里介绍一种方法,可以帮助大家提高开发效率,尤其是调试的时候更是显得方便。 在与爬虫项目的scrapy.cfg文件同级目录下建立一个main.py文件,用于控制整个爬虫项目的执行。 在该文件夹中写入的代码见下图。其中execute函数是内嵌在scrapy中的,调用这个函数可以直接调用该Scrapy工程项目的爬虫脚本,这个函数的执行需要在爬虫项目的父目录下进行。而第7行代码的意思就是获取当前py文件的父目录,省去我们直...
- 下一篇
python实现冒泡排序算法
冒泡排序,一个经典的排序算法,因在算法运行中,极值会像水底的气泡一样逐渐冒出来,因此而得名。 冒泡排序的过程是比较两个相邻元素的大小,然后根据大小交换位置,这样从列表左端开始冒泡,最后最大值会依次从右端冒出。 python实现冒泡排序: defbubble_sort(nums): foriinrange(len(nums)-1): forjinrange(len(nums)-i-1): ifnums[j]>nums[j+1]: nums[j],nums[j+1]=nums[j+1],nums[j] returnnums python实现冒泡排序的核心思想是通过从列表一端迭代循环元素,再通过一个
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS6,CentOS7官方镜像安装Oracle11G
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- MySQL8.0.19开启GTID主从同步CentOS8
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Hadoop3单机部署,实现最简伪集群