微服务业务监控和行为分析怎么做?试试日志埋点
一、说明
互联网公司一般都会有专门的数据团队对公司的一些业务指标负责;为了拿到这些基本的业务指标,一般也要工程团队去配合做一些数据采集工作,于是埋点诞生了。
埋点的方式有很多种,本文主要介绍 日志埋点
这种方式以及实现思路和案例。
日志埋点
就是通过程序打印log
日志的方式进行业务/行为数据的记录
二、总体架构
通过 日志埋点
来实现业务监控和行为分析主要需要以下4个步骤
- 数据生成(埋点)
- 数据收集
- 数据解析(结构化)
- 数据落盘
- 数据使用(展示/分析)
三、方案说明
3.1. 数据生成
日志数据的生成直接使用 Logback
等日志框架就可以了,可以自己封装公共方法、aop、注解等方式来生成指定的埋点日志
但是为了便于后面的数据解析,日志数据需要规范先行
- 所有的埋点日志必需约定好统一的格式,例如:{时间}|{来源}|{对象id}|{类型}|{对象属性(以&分割)}
按上面的格式生成的日志为: 2019-11-07 10:32:01|api-gateway|1|request-statistics|ip=171.221.203.106&browser=CHROME&operatingSystem=WINDOWS_10
- 避免埋点的日志文件和系统本身输出的日志混淆
埋点的日志输出的目录、文件等需要和应用本身的日志分离,通过
Logback
的配置就能实现
埋点案例
生成日志
网关埋点用户请求
3.2. 数据收集
关于日志数据的收集可选择的中间件比较多,除了图中的 FileBeat
之外还有 Flume
、Fluentd
、rsyslog
等;需要每台服务器都部署一个收集中间件。
每台服务器部署一个就行了,就算一台服务器中启了多个微服务也是可以一齐收集
PS:日志收集后面的 消息队列
并不是必需的可以去掉,但是增加 消息队列
后有以下两个优点
- 削峰填谷:减轻后面日志解析的压力
- 数据共享:日志数据除了提供给日志系统之外,可以增加消费端的同时提供给其他地方使用,如流计算等
3.3. 数据解析
使用 Logstash
的grok表达式解析日志数据并结构化,以上面的日志数据为例
2019-11-07 10:32:01|api-gateway|1|request-statistics|ip=171.221.203.106&browser=CHROME&operatingSystem=WINDOWS_10
结构化后的日志数据为:
{ timestamp: '2019-11-07 10:32:01', appName: 'api-gateway', resouceid: '1', type: 'request-statistics', ip: '171.221.203.106', browser: 'CHROME', operatingSystem: 'WINDOWS_10' }
3.4. 数据落盘
通过 Logstash
能自动创建 Elasticsearch
索引并以天为单位分片
可以通过索引模板来指定每个字段的类型和分词器等属性
3.5. 数据使用
日志数据落盘到 Elasticsearch
后,就可以通过聚合查询等方式实时显示监控数据或者分析日志数据
监控案例
四、总结
日志埋点
只是其中一种埋点手段而已,优点是系统无入侵且灵活;日志收集、解析、落盘等都可以灵活搭配选择不同的中间件,并且不需要修改源系统的代码;并且可以方便对接其他分析平台(例如: 大数据平台)
PS:业务监控是否可以不做日志埋点,直接查询业务的数据库呢?(不建议这样做)
- 使用日志埋点能实现监控数据与业务数据分离,监控平台不会影响或增加业务数据库的压力
- 使用日志埋点能方便实现实时业务数据预警
举个栗子:日志收集后面添加流计算中间件,计算某个时间窗口内优惠卷日志的数量或者金额大于某个阀值,则发出预警
推荐阅读
- 日志排查问题困难?分布式日志链路跟踪来帮你
- zuul集成Sentinel最新的网关流控组件
- Spring Cloud开发人员如何解决服务冲突和实例乱窜?
- Spring Cloud同步场景分布式事务怎样做?试试Seata
- Spring Cloud异步场景分布式事务怎样做?试试RocketMQ
- Spring Cloud Gateway的动态路由怎样做?集成Nacos实现很简单
扫码关注有惊喜!
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
一次 RocketMQ 进程自动退出排查经验分享(实战篇)
1、背景 公司一个 RocketMQ 集群由4主4从组成,突然其中3台服务器“竟然”在同一时间下线,其监控显示如下: 依次查看三台机器的监控图形,时间戳几乎完美“吻合”,不可思议吧。 2、故障分析 出现问题,先二话不说,马上重启各服务器,尽快恢复集群,降低对业务的影响,接下来开始对日志进行分析。 Java 进程自动退出(rocketmq 本身就是一个java进程),一种最常见的问题是由于内存溢出或由于内存泄漏导致进程发送Crash等。由于我们的启动参数中未配置-XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/opt/jvmdump 这两个参数,不能直接根据 是否生成 dump 文件,那退而求其次去查看其GC日志,将GC日志下载到本地,然后可以使用一个在线gc日志分析工具:https://gceasy.io/ ,将 gc 日志上传后会给出图形化的展示,其图如下: 发现垃圾回收很正常。 既然 Java 进程不是由于内存溢出等问题导致的退出,那又会是什么原因呢?那我们来看一下那个点的broker的日志,其关键日志截图如下: 发现 broker...
- 下一篇
clever-nashorn 第一个版本(0.0.1-SNAPSHOT)发布
2019-11-11 0.0.1-SNAPSHOT [发布第一个版本] WEB IDE 功能 脚本文件管理(新删查改) 脚本内容编辑(代码高亮、只能提示、快捷键支持) 控制台(终端)管理(清除输出、根据日志级别筛选过滤、跟随滚动) 脚本在线debug,即改即生效 直接监听线上脚本调用输出 后台API支持 脚本模块化支持(相互依赖导入,类似ES6语法) 支持加载使用第三方库,如:lodash、Underscore、等等 HTTP API支持 JDBC API支持 (支持多数据源) Redis API支持 (支持连接多个Redis) Elasticsearch API支持 (支持连接多个Elasticsearch) 支持实时监听解析MySQL binlog(基于canal实现,重写部分canal源码) (支持连接多个MySQL master) 经过大约2周的时间读canal源码并改写终于实现了对MySQL binlog的实时监听解析,使用demo如下截图 clever-nashorn 使用Java nashorn Js引擎开发的在线开发平台,使用场景主要有: 监听MySQL binlog...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- CentOS8安装Docker,最新的服务器搭配容器使用
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- Docker安装Oracle12C,快速搭建Oracle学习环境
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7,CentOS8安装Elasticsearch6.8.6