您现在的位置是:首页 > 文章详情

filebeat-kafka-logstash-elasticsearch日志收集[中文时区问题、自己创建type类index]

日期:2017-06-11点击:891
logstash配置文件如下:

点击(此处)折叠或打开

  1. input{
  2.     kafka{
  3.         bootstrap_servers => "xxxx:9092,xxxx:9092,dw72.xxxx.:9092,...."
  4.         group_id => "xxxx_service_server_logstash"
  5.         topics => ["xxxx_service_server_error", "xxxx_service_server_runtime"]
  6.         auto_offset_reset => latest
  7.             codec => "json"
  8.         consumer_threads => 10
  9.         auto_commit_interval_ms => 500
  10.     }
  11. }

  12. filter {
  13.         grok {
  14.                 #patterns_dir => ["./patterns"]
  15.                 match => {
  16.                         "message" => "%{TIMESTAMP_ISO8601:logdatetime}"
  17.                 }
  18.         }
  19.         date {
  20.                 match => [ "logdatetime", "yyyy-MM-dd HH:mm:ss"]
  21.                 target => "@timestamp"
  22. # timezone => "Asia/Shanghai"
  23.                 timezone => "+00:00"
  24.                 locale => "en"
  25.         }
  26. }

  27. output{
  28.         elasticsearch{
  29.             hosts => ["192.168.1.89:9200"]
  30.                 action => "index"
  31.             index => "%{[type]}-%{+YYYY.MM.dd}"
  32.             flush_size => 8000
  33.         }
  34. }
主要关注两个问题:
1.event的timestamp问题,中国区会显示比实际的时间早8个小时(一般不建议修改时间,国际标准,在kibana中做处理。),这里只有国内的服务器,显示为区域时间比较好看,所以我就改了。
2.es 的index根据filebeat中的document_type自动创建index。
原文链接:https://yq.aliyun.com/articles/683717
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章