您现在的位置是:首页 > 文章详情

Selenium + C# 实现模拟百度贴吧签到 1

日期:2018-08-06点击:371

代码直通车
Github FoxCrawler项目下的SeleniumClawer解决方案

工具介绍

Selenium:是一个自动化测试工具,封装了很多WebDriver用于跟浏览器内核通讯,我用开发语言来调用它实现PhantomJS的自动化操作。它的下载页面里有很多东西,我们只需要Selenium Client,它支持了很多语言(C#、JAVA、Ruby、Python、NodeJS),按自己所学语言下载即可。

下载地址:http://docs.seleniumhq.org/download/

Nuget 使用


img_23ea6bbf51eacc98d8ca29f1718c0b18.png
image.png

Selenium的好处
Selenuim的好处是显而易见的,当我们爬取网站信息时候,难免会碰到异步加载,数据延时绑定,数据接口定位难,加密信息解码难等问题。其实最终数据都会完整的显示在界面上,既然数据能够显示出来,使用Selenium操控WebDriver进行模拟浏览器行为(点击,切换,移动)等等事件,等待数据显示,然后使用选择器(Id,Class,XPath等)进行爬取,这是一种符合人习惯的编程方式。当然我也不是说其他的方式不好,只是在同等时间的情况下,这种方式效率更高,耗时更快,可靠性也更高。

下面使用Selenium进行一个简单的百度贴吧一键签到功能编码

项目创建,环境配置

打开Vs,新建控制台项目,使用Nuget获取最新Selenium的C#库,然后根据自己机型安装的浏览器选择WebDirver(有点类似运行时打开的模拟浏览器,不过时单独的一个.exe文件,首先你电脑要安装这个浏览器),我以自己的电脑Chrome浏览器为例子,所以我Nuget下载一个


img_bdea82bf40430b26093333523a0e9145.png
chrome.webdriver.png

下载完成后在项目根目录的packages文件夹中找到对应内容
根据系统类型,系统是32还是64自行选择


img_357022a30db39e26753d941ea355de7c.png
路径.png

复制.exe文件到项目Bin文件夹下即可,环境配置完成

先来一下简单例子

在完成一键签到功能之前,我们先来完成一个简单的例子,这样能让大家对这种方式有一个基本的了解
我的例子选取的是某学校的通知公告数据爬取,进行一般爬虫和Selenium爬取的区别

爬取地址
http://www.jit.edu.cn/myNews_list_out.aspx?infotype=1

img_ad70f1b6b3eef41ec01930bf78c825fd.png
截图.png

普通方式爬取

我们首先要分析如何获取数据,当我们点击下一页的时候,我们发现页面整体刷新,且地址栏没有发生变化,通过分析Respons信息我们发现IIS字样,这样可以推定使用的技术是.net webform 自带的gridview服务端控件,这种方式自带了加密验证,破解的方式网上有,就是要获取每次页面生成的加密码,然后带上其他参数向后台重新发起请求。
缺点:
如果使用这种方式,当我们碰到不同的问题,需要根据不同的问题寻找解决方案,测试可行然后再进行编码,要花多的时间在一个一个没有接触过的问题身上。

Selenium 模拟爬取

这种方式就相对简单,也很好理解。编码的逻辑就是如下
1、打开网页
2、找到下一页按钮
3、模拟点击
4、数据获取
这样的方式就和我们使用浏览器操作习惯一置,逻辑也更加清楚。

接下去我就基于这一种方法,对代码进行说明

打开网页

 var docHtml = new HtmlDocument(); var driver = new ChromeDriver(); driver.Navigate().GoToUrl("http://www.jit.edu.cn/myNews_list_out.aspx?infotype=1"); 

业务逻辑
代码简单明了,爬取当页数据,然后找到下一页按扭,如果存在点击,如何不存在,退出循环

 bool nextpage = true; do { ReadOnlyCollection<IWebElement> newsNodes = driver.FindElements(By.XPath("//*[@id=\"table_list\"]/li/a")); //获取li内容 GetNewList(newsNodes);//获得新闻内容 docHtml.LoadHtml(driver.PageSource); //找到下一页按钮 HtmlNode node = docHtml.GetElementbyId("nextpage"); IWebElement element = null; if (node != null) { element = driver.FindElementById("nextpage"); } else { nextpage = false; } //如果存在下一页按钮,模拟点击 if (nextpage) { element.Click(); } } while (nextpage); 

获取新闻内容

 private static List<NewInfo> GetNewList(ReadOnlyCollection<IWebElement> newsNodes) { List<NewInfo> newInfoList = new List<NewInfo>(); foreach (var news in newsNodes) { newInfoList.Add(new NewInfo() { Url = news.GetAttribute("href"), Title = news.Text }); Console.WriteLine($"{news.Text} {news.GetAttribute("href")}"); } return newInfoList; } 

好处:
1、代码简单明了
2、逻辑清晰
3、后期维护方便

原文链接:https://yq.aliyun.com/articles/662579
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章