ELK +filebeat +redis 安装
一、安装elasticsearch
elasticsearch-6.1.2安装
- 解压 进入目录
- 配置文件 elasticsearch.yml
- 修改 ip 和端口
- 创建运行用户 elk
- 授权 chown -R elk:elk /data1/elasticsearch-6.1.2
- elk 用户启动 :
cd /data1/elasticsearch-6.1.2/bin/ nohup ./elasticsearch &
二、安装logstash
- 解压 进入目录
- 配置文件 test.conf
input { redis { data_type => "list" key => "220" host => "192.168.1.235" port => 6379 password => "redis" db => 2 threads => 1 } } output { if [type] == "220messages" { elasticsearch { hosts => [ "192.168.1.235:9200"] index => "220messages" } } if [type] == "220ssh" { elasticsearch { hosts => [ "192.168.1.235:9200"] index => "220ssh" } } if [type] == "220tomcat" { elasticsearch { hosts => [ "192.168.1.235:9200"] index => "220tomcat" } } stdout{ codec => rubydebug } }
- 启动
nohup /data1/elk/logstash-6.1.2/bin/logstash -f /data1/elk/logstash-6.1.2/config/test.conf &
三、kibana 安装
- 解压进入目录 kibana-6.1.2-linux-x86_64
- 配置配置文件kibana.yml
* 端口 server.port: 5601 * server.host: "0.0.0.0" * elasticsearch.url: "http://192.168.1.235:9200"
- 启动
cd /data1/elk/kibana-6.1.2-linux-x86_64/bin nohup ./kibana &
四、安装filebeat
- 解压进入目录 filebeat-6.1.2-linux-x86_64
- 配置文件
filebeat.prospectors: - input_type: log paths: - /data1/tomcat-9.0/logs/logback.log #定义额外字段 fields: type: 220tomcat #覆盖重名字段 fields_under_root: true ## 注意 fields 和 fields_under_root 处于同一层级 - input_type: log paths: - /var/log/messages fields: type: 220messages fields_under_root: true - input_type: log paths: - /var/log/secure fields: type: 220ssh fields_under_root: true # 输出到redis output.redis: hosts: ["192.168.1.235"] port: 6379 password: "redis" db: 2 timeout: 5 key: "220"
- 启动
nohup ./filebeat -c test.yml &
安装redis
- 到我的另外一篇 redis 安装查看 安装方式
- https://yq.aliyun.com/articles/578251?spm=a2c4e.11155435.0.0.76f63312GxlXoE
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Optimizing Complex Data Distribution in MaxCompute
For a long time, data distribution has been an issue in the field of Big Data processing. Unfortunately, the Big Data processing systems that are popular today do not satisfactorily solve the issue. In the all-new optimizer for Maxcompute2.0, we introduced complex data distribution. In this version we added new optimization measures like partition pruning, distributio
- 下一篇
[Phoenix] 九、分页查询
概述 所谓分页查询就是从符合条件的起始记录,往后遍历“页大小”的行。数据库的分页是在server端完成的,避免客户端一次性查询到大量的数据,让查询数据数据分段展示在客户端。对于Phoenix的分页查询,怎么使用?性能怎么样?需要注意什么?将会在文章中通过示例和数据说明。 二、分页查询 1. 语法说明 [ LIMIT { count } ] [ OFFSET start [ ROW | ROWS ] ] [ FETCH { FIRST | NEXT } [ count ] { ROW | ROWS } ONLY ] Limit或者Fetch在order by子句后转化为为top-N的查询,其中offset子句表示从开始的位置跳过多少行开始扫描。 对于以下的offsset使用示例, 我们可发现当offset的值为0时,查询结果从第一行记录开始扫描
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Mario游戏-低调大师作品
- CentOS6,CentOS7官方镜像安装Oracle11G
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- Windows10,CentOS7,CentOS8安装Nodejs环境
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- CentOS8编译安装MySQL8.0.19
- MySQL8.0.19开启GTID主从同步CentOS8
- CentOS8安装Docker,最新的服务器搭配容器使用
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7