Python 爬取了马蜂窝的出行数据,告诉你这个夏天哪里最值得去!
正值火辣的暑假,朋友圈已经被大家的旅行足迹刷屏了,真的十分惊叹于那些把全国所有省基本走遍的朋友们。与此同时,也就萌生了写篇旅行相关的内容,本次数据来源于一个对于爬虫十分友好的旅行攻略类网站:蚂蜂窝。
一、获得城市编号
蚂蜂窝中的所有城市、景点以及其他的一些信息都有一个专属的5位数字编号,我们第一步要做的就是获取城市(直辖市+地级市)的编号,进行后续的进一步分析。
以上两个页面就是我们的城市编码来源。需要首先从目的地页面获得各省编码,之后进入各省城市列表获得编码。
过程中需要Selenium进行动态数据爬取,部分代码如下:
def find_cat_url(url): headers = { 'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20100101 Firefox/23.0' } req=request. Request (url,headers=headers) html=urlopen(req) bsObj= BeautifulSoup (html.read(), "html.parser" ) bs = bsObj.find( 'div' ,attrs={ 'class' : 'hot-list clearfix' }).find_all( 'dt' ) cat_url = [] cat_name = [] for i in range( 0 ,len(bs)): for j in range( 0 ,len(bs[i].find_all( 'a' ))): cat_url.append(bs[i].find_all( 'a' )[j].attrs[ 'href' ]) cat_name.append(bs[i].find_all( 'a' )[j].text) cat_url = [ 'http://www.mafengwo.cn' +cat_url[i] for i in range( 0 ,len(cat_url))] return cat_url def find_city_url(url_list): city_name_list = [] city_url_list = [] for i in range( 0 ,len(url_list)): driver = webdriver. Chrome () driver.maximize_window() url = url_list[i].replace( 'travel-scenic-spot/mafengwo' , 'mdd/citylist' ) driver. get (url) while True : try : time.sleep( 2 ) bs = BeautifulSoup (driver.page_source, 'html.parser' ) url_set = bs.find_all( 'a' ,attrs={ 'data-type' : '目的地' }) city_name_list = city_name_list +[url_set[i].text.replace( '\n' , '' ).split()[ 0 ] for i in range( 0 ,len(url_set))] city_url_list = city_url_list+[url_set[i].attrs[ 'data-id' ] for i in range( 0 ,len(url_set))] js= "var q=document.documentElement.scrollTop=800" driver.execute_script(js) time.sleep( 2 ) driver.find_element_by_class_name( 'pg-next' ).click() except : break driver.close() return city_name_list,city_url_list url = 'http://www.mafengwo.cn/mdd/' url_list = find_cat_url(url) city_name_list,city_url_list=find_city_url(url_list) city = pd. DataFrame ({ 'city' :city_name_list, 'id' :city_url_list})
二、获得城市信息 城市数据分别从以下几个页面获取:
(a)小吃页面
(b)景点页面
(c)标签页面
我们将每个城市获取数据的过程封装成函数,每次传入之前获得的城市编码,部分代码如下:
def get_city_info(city_name,city_code): this_city_base = get_city_base(city_name,city_code) this_city_jd = get_city_jd(city_name,city_code) this_city_jd[ 'city_name' ] = city_name this_city_jd[ 'total_city_yj' ] = this_city_base[ 'total_city_yj' ] try : this_city_food = get_city_food(city_name,city_code) this_city_food[ 'city_name' ] = city_name this_city_food[ 'total_city_yj' ] = this_city_base[ 'total_city_yj' ] except : this_city_food=pd. DataFrame () return this_city_base,this_city_food,this_city_jd def get_city_base(city_name,city_code): url = 'http://www.mafengwo.cn/xc/' +str(city_code)+ '/' bsObj = get_static_url_content(url) node = bsObj.find( 'div' ,{ 'class' : 'm-tags' }).find( 'div' ,{ 'class' : 'bd' }).find_all( 'a' ) tag = [node[i].text.split()[ 0 ] for i in range( 0 ,len(node))] tag_node = bsObj.find( 'div' ,{ 'class' : 'm-tags' }).find( 'div' ,{ 'class' : 'bd' }).find_all( 'em' ) tag_count = [ int (k.text) for k in tag_node] par = [k.attrs[ 'href' ][ 1 : 3 ] for k in node] tag_all_count = sum([ int (tag_count[i]) for i in range( 0 ,len(tag_count))]) tag_jd_count = sum([ int (tag_count[i]) for i in range( 0 ,len(tag_count)) if par[i]== 'jd' ]) tag_cy_count = sum([ int (tag_count[i]) for i in range( 0 ,len(tag_count)) if par[i]== 'cy' ]) tag_gw_yl_count = sum([ int (tag_count[i]) for i in range( 0 ,len(tag_count)) if par[i] in [ 'gw' , 'yl' ]]) url = 'http://www.mafengwo.cn/yj/' +str(city_code)+ '/2-0-1.html ' bsObj = get_static_url_content(url) total_city_yj = int (bsObj.find( 'span' ,{ 'class' : 'count' }).find_all( 'span' )[ 1 ].text) return { 'city_name' :city_name, 'tag_all_count' :tag_all_count, 'tag_jd_count' :tag_jd_count, 'tag_cy_count' :tag_cy_count, 'tag_gw_yl_count' :tag_gw_yl_count, 'total_city_yj' :total_city_yj} def get_city_food(city_name,city_code): url = 'http://www.mafengwo.cn/cy/' +str(city_code)+ '/gonglve.html' bsObj = get_static_url_content(url) food=[k.text for k in bsObj.find( 'ol' ,{ 'class' : 'list-rank' }).find_all( 'h3' )] food_count=[ int (k.text) for k in bsObj.find( 'ol' ,{ 'class' : 'list-rank' }).find_all( 'span' ,{ 'class' : 'trend' })] return pd. DataFrame ({ 'food' :food[ 0 :len(food_count)], 'food_count' :food_count}) def get_city_jd(city_name,city_code): url = 'http://www.mafengwo.cn/jd/' +str(city_code)+ '/gonglve.html' bsObj = get_static_url_content(url) node=bsObj.find( 'div' ,{ 'class' : 'row-top5' }).find_all( 'h3' ) jd = [k.text.split( '\n' )[ 2 ] for k in node] node=bsObj.find_all( 'span' ,{ 'class' : 'rev-total' }) jd_count=[ int (k.text.replace( ' 条点评' , '' )) for k in node] return pd. DataFrame ({ 'jd' :jd[ 0 :len(jd_count)], 'jd_count' :jd_count})
三、数据分析 PART1:城市数据
首先我们看一下游记数量最多的TOP10城市:
游记数量TOP10数量基本上与我们日常所了解的热门城市相符,我们进一步根据各个城市游记数量获得全国旅行目的地热力图:
看到这里,是不是有种似曾相识的感觉,如果你在朋友圈晒的足迹图与这幅图很相符,那么说明蚂蜂窝的数据与你不谋而合。
最后我们看一下大家对于各个城市的印象是如何的,方法就是提取标签中的属性,我们将属性分为了休闲、饮食、景点三组,分别看一下每一组属性下大家印象最深的城市:
看来对于蚂蜂窝的用户来说,厦门给大家留下的印象是非常深的,不仅游记数量充足,并且能从中提取的有效标签也非常多。重庆、西安、成都也无悬念地给吃货们留下了非常深的印象,部分代码如下:
bar1 = Bar ( "餐饮类标签排名" ) bar1.add( "餐饮类标签分数" , city_aggregate.sort_values( 'cy_point' , 0 , False )[ 'city_name' ][ 0 : 15 ], city_aggregate.sort_values( 'cy_point' , 0 , False )[ 'cy_point' ][ 0 : 15 ], is_splitline_show = False ,xaxis_rotate= 30 ) bar2 = Bar ( "景点类标签排名" ,title_top= "30%" ) bar2.add( "景点类标签分数" , city_aggregate.sort_values( 'jd_point' , 0 , False )[ 'city_name' ][ 0 : 15 ], city_aggregate.sort_values( 'jd_point' , 0 , False )[ 'jd_point' ][ 0 : 15 ], legend_top= "30%" ,is_splitline_show = False ,xaxis_rotate= 30 ) bar3 = Bar ( "休闲类标签排名" ,title_top= "67.5%" ) bar3.add( "休闲类标签分数" , city_aggregate.sort_values( 'xx_point' , 0 , False )[ 'city_name' ][ 0 : 15 ], city_aggregate.sort_values( 'xx_point' , 0 , False )[ 'xx_point' ][ 0 : 15 ], legend_top= "67.5%" ,is_splitline_show = False ,xaxis_rotate= 30 ) grid = Grid (height= 800 ) grid.add(bar1, grid_bottom= "75%" ) grid.add(bar2, grid_bottom= "37.5%" ,grid_top= "37.5%" ) grid.add(bar3, grid_top= "75%" ) grid.render( '城市分类标签.html' )
PART2:景点数据
我们提取了各个景点评论数,并与城市游记数量进行对比,分别得到景点评论的绝对值和相对值,并据此计算景点的人气、代表性两个分数,最终排名TOP15的景点如下:
蚂蜂窝网友对于厦门真的是情有独钟,鼓浪屿也成为了最具人气的景点,在城市代表性方面西塘古镇和羊卓雍措位列前茅。暑假之际,如果担心上排的景点人太多,不妨从下排的景点中挖掘那些人少景美的旅游地。
PART3:小吃数据
最后我们看一下大家最关注的的与吃相关的数据,处理方法与PART2景点数据相似,我们分别看一下最具人气和最具城市代表性的小吃。
出乎意料,蚂蜂窝网友对厦门果真爱得深沉,让沙茶面得以超过火锅、烤鸭、肉夹馍跻身最具人气的小吃。
在城市代表性方面,海鲜的出场频率非常高,这点与大(ben)家(ren)的认知也不谋而合,PART2与3的部分代码如下:
bar1 = Bar ( "景点人气排名" ) bar1.add( "景点人气分数" , city_jd_com.sort_values( 'rq_point' , 0 , False )[ 'jd' ][ 0 : 15 ], city_jd_com.sort_values( 'rq_point' , 0 , False )[ 'rq_point' ][ 0 : 15 ], is_splitline_show = False ,xaxis_rotate= 30 ) bar2 = Bar ( "景点代表性排名" ,title_top= "55%" ) bar2.add( "景点代表性分数" , city_jd_com.sort_values( 'db_point' , 0 , False )[ 'jd' ][ 0 : 15 ], city_jd_com.sort_values( 'db_point' , 0 , False )[ 'db_point' ][ 0 : 15 ], is_splitline_show = False ,xaxis_rotate= 30 ,legend_top= "55%" ) grid= Grid (height= 800 ) grid.add(bar1, grid_bottom= "60%" ) grid.add(bar2, grid_top= "60%" ,grid_bottom= "10%" ) grid.render( '景点排名.html' )
文中所有涉及到的代码已经发到Github上了,欢迎大家自取:
https://github.com/shujusenlin/mafengwo_data。
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
2018年你需要知道的13个JavaScript工具库
v2-307971e2f3800cf8ee6fde8a2e9ea1cc_1200x500.jpg 译者按: 你可能已经用到Underscore或者Lodash。本文列举了13个常用的JavaScript工具库来提高开发效率。 原文: 11 Javascript Utility Libraries You Should Know In 2018 译者: Fundebug 为了保证可读性,本文采用意译而非直译。另外,本文版权归原作者所有,翻译仅用于学习。 JavaScript依然是2018年最受欢迎、最流行的编程语言,所以它的生态系统也十分完善。 image JavaScript小小的标准库已经不足以应付各种开发需求。在Github上,有许多流行的JavaScript工具库。在这里,我整理了一个列表推荐给大家: 1. Underscore & Lodash 也许大多数童鞋都已经知道它们。Underscore提供了日常使用的基础函数。Lodash, 作为NPM最多下载量和被依赖最多的包,旨在为数组,字符串,对象和参数对象提供更一致的跨环境迭代支持。它已经是Underscore的超集。...
- 下一篇
SpringBoot 手写过滤器&加载第三方过滤器
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_36367789/article/details/81665638 如何手写一个过滤器呢。假设我现在需要一个计时过滤器,我想把每一次调用服务锁花费的时间打印到控制台,我该怎么做呢? 拦截机制有三种: 1. 过滤器(Filter)能拿到http请求,但是拿不到处理请求方法的信息。 2. 拦截器(Interceptor)既能拿到http请求信息,也能拿到处理请求方法的信息,但是拿不到方法的参数信息。 3. 切片(Aspect)能拿到方法的参数信息,但是拿不到http请求信息。 他们三个各有优缺点,需要根据自己的业务需求来选择最适合的拦截机制。 好了下面开始正文。 本教程大概目录: 1. 手写过滤器 2. 加载第三方过滤器 好了,开始正文。 1. 手写过滤器 特别容易,继承Filter ,然后根据需求重写它的三个方法。 /** * TimeFilter 计时过滤器 * Created by Fant.J. */ @Component public class TimeFilter impl...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
-
Docker使用Oracle官方镜像安装(12C,18C,19C)
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS8编译安装MySQL8.0.19
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- MySQL8.0.19开启GTID主从同步CentOS8
- CentOS7,8上快速安装Gitea,搭建Git服务器
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
推荐阅读
最新文章
- CentOS7,CentOS8安装Elasticsearch6.8.6
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- CentOS6,CentOS7官方镜像安装Oracle11G
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- 设置Eclipse缩进为4个空格,增强代码规范
- Mario游戏-低调大师作品
- MySQL8.0.19开启GTID主从同步CentOS8
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果