ELK日志服务器的快速搭建并收集nginx日志
今天给大家带来的是开源实时日志分析 ELK , ELK 由 ElasticSearch 、 Logstash 和 Kiabana 三个开源工具组成。官方网站:https://www.elastic.co
其中的3个软件是:
Elasticsearch 是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制, restful 风格接口,多数据源,自动搜索负载等。
Logstash 是一个完全开源的工具,他可以对你的日志进行收集、分析,并将其存储供以后使用(如,搜索)。
kibana 也是一个开源和免费的工具,他 Kibana 可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志
系统 | 系统需要安装的软件 | ip | 描述 |
centos6.4 | Elasticsearch/test5 | 192.168.48.133 | 搜索存储日志 |
centos6.4 | Elasticsearch/test4 | 192.168.48.131 | 搜索存储日志 |
centos6.4 | Logstash/nginx/test1 | 192.168.48.129 | 用来收集日志给上面 |
centos6.4 | kibana,nginx/test2 | 192.168.48.130 | 用来后端的展示 |
软件下载:链接:链接:http://share.weiyun.com/3b6c27e33cbf4d0acc0ccfa14877bd05 (密码:IWLe)
架构原理图:
一、先安装elasticsearch集群,并测试通过再进行其他软件安装。
在test5,test4上安装分别安装elasticsearch-2.3.3.rpm 前提要安装java1.8 步骤如下:
yum remove java-1.7.0-openjdk rpm -ivh jdk-8u91-linux-x64.rpm yum localinstall elasticsearch-2.3.3.rpm
配置elasticsearch 在目录/etc/elasticsearch目录下面 lasticsearch.yml elasticsearch.yml.bak logging.yml scripts
编辑lasticsearch.yml
修改如下配置
cluster.name: myelk #设置集群的名称,在一个集群里面都是这个名称,必须相同
node.name: test5 #设置每一个节点的名,每个节点的名称必须不一样。
path.data: /path/to/data #指定数据的存放位置,线上的机器这个要放到单一的大分区里面。
path.logs: /path/to/logs #日志的目录
bootstrap.mlockall: true #启动最优内存配置,启动就分配了足够的内存,性能会好很多,测试我就不启动了。
network.host: 0.0.0.0 #监听的ip地址,这个表示所有的地址。
http.port: 9200 #监听的端口号
discovery.zen.ping.unicast.hosts: ["192.168.48.133", "192.168.48.131"] #知道集群的ip有那些,没有集群就会出现就一台工作
建立目录
mkdir -pv /pach/to/{data,logs} chown elasticsearch.elasticsearch /path -R
启动服务器 service elasticsearch start 并查看监控端口启动
访问9200端口查看服务
两台的配置都一样就是上面的IP和note名称要配置不一样就行
安装插件 head和kopf 之后访问 ip:9200/_plugin/head 和ip:9200/_plugin/kopf (插件可以图形查看elasticsearch的状态和删除创建索引)
/usr/share/elasticsearch/bin/plugin install lmenezes/elasticsearch-kopf /usr/share/elasticsearch/bin/plugin install mobz/elasticsearch-head
二、安装nginx和logstash软件
在test1上安装好nginx服务 就是收集它的日志呢
yum -y install zlib zlib-devel openssl openssl--devel pcre pcre-devel ./configure --prefix=/usr/local/nginx --with-pcre --with-openssl= --with-zlib= make && make install
日志在/usr/local/nginx/logs/access.log
然后在test1上安装logstash-2.3.3-1.noarch.rpm
yum remove java-1.7.0-openjdk rpm -ivh jdk-8u91-linux-x64.rpm rpm -ivh logstash-2.3.3-1.noarch.rpm /etc/init.d/logstash start #启动服务 /opt/logstash/bin/logstash -e "input {stdin{}} output{stdout{ codec=>"rubydebug"}}" #检测环境 执行这个命令检测环境正常否,启动完成后 直接输入东西就会出现
之后输入 /opt/logstash/bin/logstash -e 'input {stdin{}} output{ elasticsearch { hosts => ["192.168.48.131:9200"] index => "test"}}'
就是输入东西到48.131的elasticsearch上 会在/path/to/data/myelk/nodes/0/indices 生成你名称test索引文件目录 可以多输入几个到48.131的目录看看有没有文件有就证明正常。
之后在/etc/logstash/conf.d 建立以.conf结尾的配置文件,我收集nginx就叫nginx.conf了内容如下;
###########################################################################################
input {
file {
type => "accesslog"
path => "/usr/local/nginx/logs/access.log" #日志的位置
start_position => "beginning" #日志收集文件,默认end
}
}
output {
if [type] == "accesslog" {
elasticsearch {
hosts => ["192.168.0.87"] ###elasticearch的地址
index => "nginx-access-%{+YYYY.MM.dd}" #生成的索引和刚才的test一样会在那里生成后面的是日期变量。
}
}
}
##########################################################################################
一定要仔细,之后运行/etc/init.d/logstash configtest检测配置是否正常。
查看进程是否启动
之后在elasticearch查看有没有索引生成。多访问下nginx服务
如果没有就修改这个文件
vi /etc/init.d/logstash
######################################################################################################
LS_USER=root ###把这里换成root或者把访问的日志加个权限可以让logstash可以读取它 重启服务就会生成索引了
LS_GROUP=root
LS_HOME=/var/lib/logstash
LS_HEAP_SIZE="1g"
LS_LOG_DIR=/var/log/logstash
LS_LOG_FILE="${LS_LOG_DIR}/$name.log"
LS_CONF_DIR=/etc/logstash/conf.d
LS_OPEN_FILES=16384
LS_NICE=19
KILL_ON_STOP_TIMEOUT=${KILL_ON_STOP_TIMEOUT-0} #default value is zero to this variable but could be updated by user request
LS_OPTS=""
#######################################################################################################
看logstash的日志有下面的信息就成功了
三、安装kibana软件
上面的都安装完成后在test2上面安装kibana
rpm -ivh kibana-4.5.1-1.x86_64.rpm
编辑配置文件在这里/opt/kibana/config/kibana.yml 就修改下面几项就行
#######################################################################################################
server.port: 5601 端口
server.host: "0.0.0.0" 监听
elasticsearch.url: "http://192.168.48.131:9200" elasticsearch地址
######################################################################################################
/etc/init.d/kibana start 启动服务
访问kibana http://ip:5601
添加展示的索引,就是在上面定义的 nginx-access-2016.07.03
四、其他的一些配置。
kibana是直接访问的比较不安全,我们需要用nginx访问代理,并设置权限用户名和密码访问
先在kibana服务器上安装nginx 不介绍了
在nginx里面配置
#################################################################################
server
{
listen 80;
server_name localhost;
auth_basic "Restricted Access";
auth_basic_user_file /usr/local/nginx/conf/htpasswd.users; #密码和用户
location / {
proxy_pass http://localhost:5601; #代理kibana的5601之后就可以直接80访问了
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header REMOTE-HOST $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
####################################################################################
创建密码和用户文件:htpasswd.users
需要安装httpd-tool包先安装它
htpasswd -bc /usr/local/nginx/conf/htpasswd.users admin paswdadmin #前面是用户后面是密码
##################################################################################
之后通过访问需要密码和用户并且是80端口了
到这里就完成了,谢谢你的阅读。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
微软Azure云之企业Exchange 2016部署7—安装邮件服务器
本节我们来部署Exchange2016邮件服务器,如下图红框所示。 Exchange2016相对于Exchange2013来说,改变不大。最大的改变还是客户端访问服务器角色(CAS)和邮箱服务器角色(MBX)的角色合并。也就是说我们无法将CAS和MBX分开部署。这一更改反映了Exchange服务器角色归置(自 Exchange 2010 起的推荐最佳做法)的理念。 Exchange2016体系结构图: 多角色 Exchange 服务器体系结构带来了以下切实可见的好处: a. 环境中的所有 Exchange 服务器(边缘传输服务器可能除外)都可以完全相同,即具有相同的硬件、配置等。这种统一性可简化硬件的购买,以及 Exchange 服务器的维护和管理。 b. 可以需要更少的物理Exchange服务器。这不仅能降低日常维护成本,还能减少Exchange 服务器许可证以及机架、占地面积和供电需求。 c. 可伸缩性得到了改善,因为您要跨更多的物理计算机分布工作负荷。在故障发生期间,其余Exchange 多角色服务器上的负荷只是逐步增加,这可以确保Exchange服务器上的其他功能不会受到...
- 下一篇
Python面向对象之为何要用类
对于非程序员科班出身的技术人员,理解很多开发思想领域里面的事情,其实是一件挺痛苦的事情,直到接触到了Python当中的类,我才明白了什么是面向对象,更多的理解还是要通过实际的代码操练才能够慢慢的掌握。 今天记录一下什么是面向对象,在Python的编程世界里为什么要用到类。 一、面向对象 将大家共有的特性剥离出来进行抽象的过程就是面向对象,这是我对面向对象最直观的理解,例如我们在工厂生产汽车,每一款车都有自己的生产平台,试想一下这样的场景,A款车有100个工人在独立生产,其中20个人生产底盘,20个人研发发动机,40个人制作车架、车门,20个人负责最终的车辆组装,B款车同样有100个人干着和A款车相同的事情,如果世界是这个样子,丰田、大众也早就倒闭了,不管是任何车型,虽然每款车都有自己独立的生产平台,但是很多东西一定是具备相同属性的,例如发动机、方向盘、车座、轮胎,在小到螺丝帽等等,我们可以将这些共有的东西完全独立出来,变成每款车型的共有属性,那么100个工人可能有50个人都是负责公共部分的,节省了人力成本的同时,也节省了资源成本,例如我们要对座椅的尺寸进行调整,那么仅需要对这50个人的...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Docker安装Oracle12C,快速搭建Oracle学习环境
- SpringBoot2全家桶,快速入门学习开发网站教程
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- CentOS关闭SELinux安全模块
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- CentOS6,CentOS7官方镜像安装Oracle11G
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Docker使用Oracle官方镜像安装(12C,18C,19C)