雪球网沪深全站股票评论爬虫
这个爬虫写得好累,就简单讲一下思路吧。雪球网股票的评论内容是不能直接访问的,必须要携带在第一次访问时雪球网写进本地的cookie(其实你随便打开一次官网就是属于第一次访问了,那时候 不需要cookie),先放上github地址:
https://github.com/xiaobeibei26/xueiqiu_spider
爬取思路是这样的,先挖取所有股票的代码,放进数据库,然后根据股票代码爬取每一只股票的评论,多了,一定要加入代理池,我这里用的上上一篇文章写的代理池,我们给每个股票代码赋予一个状态值,一开始是outstanding,也就是1。如图:
每个进程需要知道那些股票评论爬取过了、哪些股票需要爬取!我们来给每个URL设置三种状态: