关于” 记一次logback传输日志到logstash根据自定义设置动态创建ElasticSearch索引” 这篇博客相关的优化采坑记录
之前写过一篇博客是关于记录日志的简单方式的 主要就是 应用->redis->logstash->elasticsearch 整个流程的配置方法和过程的
https://www.cnblogs.com/zhyg/p/6994314.html
记一次logback传输日志到logstash根据自定义设置动态创建ElasticSearch索引
虽然我们部分线上应用使用 redis单节点 logstash 也是使用单节点基本稳定流畅并且几乎不丢日志(单节点问题就不说了肯定有单点故障之后在分析)
上面的两个单节点 一天承受1-3亿条日志是没有问题的前提是并发量不要太大
可是 可是 tmd我今天就遇到了
主要分享一下解决方案
本方案同样是两个单节点
先说下今天发生的北京情况
我们的业务服务有些挤压这个时候我们把处理节点线程加多 来处理