2018最常用大数据业务监控项目方案流程解析
1
根据监控对象的不同,监控系统可以分为系统监控、应用监控和业务监控。“实时交易监控系统”属于业务监控,主要用于监控客户的购买行为及订单情况,一般用于支持公司的日常运营决策和重大营销活动,如“双11”、“双12”及“双旦”等,对数据的实时性要求较高。
“实时交易监控系统”对数据的一般处理流程:实时捕获数据库中交易数据的变更、实时计算订单各维度的指标、再实时推送指标到浏览器大屏。通过采集、计算、展示三个阶段的实时性来保证整个监控系统的时效性,延迟可控制在秒级或亚秒级以内
这个是效果图,企业内上线的项目监控的需求会有很多,这个是简易版的,做了很多的需求删减。
通过“实时交易监控系统”的开发,来讲解典型的大数据实时解决方案的过程及原理,包括数据采集(kafka+canal)、数据计算(spark streaming/storm/kafka stream)、数据存储(hbase)、数据应用及可视化(echarts)等。
监控系统概述
包含要素:
全方位的监控指标
异常告警通知:告警触发阈值、告警监控对象、告警通知接收人以及发送渠道
可视化图表分析
监控规则配置化
应用场景:
业务质量实时关注
业务异常提前发现
业务精细化运营/运维
实施流程:
指标采集->指标加工->指标存储->指标可视化
项目技术架构流程图
看图方式为从上往下、从左往右来看,以箭头的指向,箭头指向的是原数据的流向到最终展示的路径。
MySql为例,mysql的交易数据binlog,里面的订单数据、用户的注册数据或者用户的购买信息。原数据怎么实时的往后面流转呢?这里就用到了Alibaba Canal开源组件,实时监控数据变更与捕获在推送到kafka。
Kafka是一个大型的消息队列缓冲区,是个集群模式的消息缓冲区,可以存大量的缓冲数据,如果我们的交易量较大的时候会用到kafka做一个消息缓冲作用,形成一些原始的交易数据。
缓冲完之后,会再进入到实时计算框架spark streaming中,spark streaming会消费kafka里面的这些订单数据,从spark streaming这一段的分支,分别是做监控的思路
绿色箭头方案:
spark streaming把数据处理成我们想要的metric,做一些聚合与指标的处理,metric又会回流到kafka当中。
在处理完指标之后,会启一个nodejs的一个服务,这个服务会再次去消费metric的这个kafka,然后通过socket.io这样的一个web socket双向交互的工具在把数据推送到浏览器,然后就会看到整个数据是从数据库抽取出来,一系列的传递在实时推送到浏览器的,实时的处理链路就清晰了,在看到实时的动态变化的大屏。只要mysql里面有交易发生,那整个数据流就会通过这样一个管道最后到达浏览器。
红色箭头方案:
spark streaming把基础数据加工完成之后,会放到HBASE里。根据hbase里有没有新增的指标,有新增指标在传输过去做变动展示,浏览器做不定时的刷新。
技术点梳理
相信读者对于这个业务监控项目有了一定的了解,数据的处理方式与如何在浏览器上展示并且有两种方式去做到数据实时更新。
了解了大数据的入门所必须的基础知识点,不用多说,最后的实战训练是最重要的,进行一些实际项目的操作练手,可以帮助我们更好的理解所学的内容,同时对于相关知识也能加强记忆,在今后的运用中,也可以更快的上手,对于相关知识该怎么用也有了经验。
原文发布时间为:2018-08-26

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
DKHadoop添加删除节点的功能说明
Hadoop作为搭建大数据处理平台的重要“基石”,关于它的分析和讲解的文章已经有很多了。Hadoop本身是一分布式的系统,因此在安装的时候,需要多每一个节点进行组建的安装。并且由于是开源软件,其安装过程相对比较复杂。这也是很多人在搭建hadoop运行环境时总是不能一次性成功的主要原因。 hadoop每个组建都要做很多的配置工作,如果手动去完成这个工作,工作量其实还是非常庞大。正是这一点我觉得很多做国产发行版hadoop软件开发的都没有大快的DKhadoop发行版做的好。我记得在之前写DKHadoop运行环境搭建流程的时候也提到过这个问题,DKH可以说是把易用性做的非常好了,无论是对于老手还是新入门者,上手速度要比其他的一些发行版快的多。 针对hadoop每个组建都要配置的这种情况,DKH提供了自动化安装应用来部署Hadoop。这就大大缩短了Hadoop的安装时间,同时也简化了安装Hadoop的过程。如果你在安装之后想要拓展节点,其实也不用担心。因为DKH中提供了节点管理的功能。 “节点”是集群中的服务器。DKH集群中的节点担任不同服务的不同角色,协同工作。我们可以在DKH管理界面添加节...
-
下一篇
elasticsearch集群安装
1环境准备 1准备三台cenots7环境,设置好iphostname。 192.168.1.94 es1 192.168.1.92 es2 192.168.1.93 es3 并将这些信息添加到/etc/hosts,确保能够通过hostname访问 2下载elasticsearch以及jdk https://www.elastic.co/downloads/elasticsearch https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 请都选择rpm版本下载,复制到三太服务器上。 3安装jdk以及elasticsearch 在三台服务都要执行 rpm -ijdk-8u181-linux-x64.rpm rpm -ielasticsearch-6.3.2.rpm systemctlenableelasticsearch.service systemctlstartelasticsearch.service systemctldisablefirewalld syste...
相关文章
文章评论
共有0条评论来说两句吧...