首页 文章 精选 留言 我的

精选列表

搜索[高并发],共10000篇文章
优秀的个人博客,低调大师

ELK收集nginx日志并用德地图展示出IP

(一)测试的环境 agentd:192.168.180.22 ES:192.168.180.23 kibana:192.168.180.23 采用的拓扑:logstash -->ES-->kibana (二)实施步骤: (1)logstsh具体配置: 1,配置nginx日志格式,采用log_format格式: 1 2 3 log_formatmain '$remote_addr-$remote_user[$time_local]"$request"' '$status$body_bytes_sent"$http_referer"' '"$http_user_agent""$http_x_forwarded_for"' ; 2,在logstash服务器下载IP地址归类查询库 1 2 3 [root@localhostconfig] #cd/usr/local/logstash/config/ [root@localhostconfig] #wgethttp://geolite.maxmind.com/download/geoip/database/GeoLite2-City.mmdb. gz 3,配置logstash客户端 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [root@localhostconfig] #vim/usr/local/logstash/config/nginx-access.conf input{ file { path=> "/opt/access.log" type => "nginx" start_position=> "beginning" } } filter{ grok{ match=>{ "message" =>"%{IPORHOST:remote_addr}--\[%{HTTPDATE:time_local}\]\"%{WO RD:method}%{URIPATHPARAM:request}HTTP/%{NUMBER:httpversion}\"%{INT:status}%{INT:body_bytes_sent}% {QS:http_referer}%{QS:http_user_agent}" } } geoip{ source => "remote_addr" target=> "geoip" database=> "/usr/local/logstash/config/GeoLite2-City.mmdb" add_field=>[ "[geoip][coordinates]" , "%{[geoip][longitude]}" ] add_field=>[ "[geoip][coordinates]" , "%{[geoip][latitude]}" ] } } output{ elasticsearch{ hosts=>[ "192.168.180.23:9200" ] manage_template=> true index=> "logstash-map-%{+YYYY-MM}" } } 备注: geoip: IP查询插件 source: 需要通过geoip插件处理的field,一般为ip,这里因为通过控制台手动输入的是ip所以直接填message,生成环境中如果查询nginx访问用户,需先将客户端ip过滤出来,然后这里填remote_addr即可 target: 解析后的Geoip地址数据,应该存放在哪一个字段中,默认是geoip这个字段 database: 指定下载的数据库文件 add_field: 这里两行是添加经纬度,地图中地区显示是根据经纬度来识 。如果启动正常的话,可以在kibana看到geoip相关的字段,如下图: 3,启动logstash客户端并加载刚才的配置文件。 1 2 3 4 5 6 7 8 9 10 11 12 [root@localhostconfig] #/usr/local/logstash/bin/logstash-fnginx-access.conf SendingLogstash'slogsto /usr/local/logstash/logs which isnowconfiguredvialog4j2.properties [2017-06-20T22:55:23,801][INFO][logstash.outputs.elasticsearch]ElasticsearchpoolURLsupdated{:changes=>{:removed=>[],:added=>[http: //192 .168.180.23:9200/]}} [2017-06-20T22:55:23,805][INFO][logstash.outputs.elasticsearch]Runninghealthchecktosee if anElasticsearchconnectionisworking{:healthcheck_url=>http: //192 .168.180.23:9200/,:path=> "/" } [2017-06-20T22:55:23,901][WARN][logstash.outputs.elasticsearch]RestoredconnectiontoESinstance{:url=> #<URI::HTTP:0x4e54594dURL:http://192.168.180.23:9200/>} [2017-06-20T22:55:23,909][INFO][logstash.outputs.elasticsearch]Usingmappingtemplatefrom{:path=>nil} [2017-06-20T22:55:23,947][INFO][logstash.outputs.elasticsearch]Attemptingto install template{:manage_template=>{ "template" => "logstash-*" , "version" =>50001, "settings" =>{ "index.refresh_interval" => "5s" }, "mappings" =>{ "_default_" =>{ "_all" =>{ "enabled" => true , "norms" => false }, "dynamic_templates" =>[{ "message_field" =>{ "path_match" => "message" , "match_mapping_type" => "string" , "mapping" =>{ "type" => "text" , "norms" => false }}},{ "string_fields" =>{ "match" => "*" , "match_mapping_type" => "string" , "mapping" =>{ "type" => "text" , "norms" => false , "fields" =>{ "keyword" =>{ "type" => "keyword" }}}}}], "properties" =>{ "@timestamp" =>{ "type" => "date" , "include_in_all" => false }, "@version" =>{ "type" => "keyword" , "include_in_all" => false }, "geoip" =>{ "dynamic" => true , "properties" =>{ "ip" =>{ "type" => "ip" }, "location" =>{ "type" => "geo_point" }, "latitude" =>{ "type" => "half_float" }, "longitude" =>{ "type" => "half_float" }}}}}}}} [2017-06-20T22:55:23,955][INFO][logstash.outputs.elasticsearch]NewElasticsearchoutput{:class=> "LogStash::Outputs::ElasticSearch" ,:hosts=>[ #<URI::Generic:0x1e098115URL://192.168.180.23:9200>]} [2017-06-20T22:55:24,065][INFO][logstash.filters.geoip]Usinggeoipdatabase{:path=> "/usr/local/logstash/config/GeoLite2-City.mmdb" } [2017-06-20T22:55:24,094][INFO][logstash.pipeline]Startingpipeline{ "id" => "main" , "pipeline.workers" =>4, "pipeline.batch.size" =>125, "pipeline.batch.delay" =>5, "pipeline.max_inflight" =>500} [2017-06-20T22:55:24,275][INFO][logstash.pipeline]Pipelinemainstarted [2017-06-20T22:55:24,369][INFO][logstash.agent]SuccessfullystartedLogstashAPIendpoint{:port=>9600} (2)Kibana配置. 1,编辑修改kibana的配置文件kibana.yml在最后添加如下: 1 2 3 4 5 6 #Thedefaultlocale.Thislocalecanbeusedincertaincircumstancestosubstituteanymissing #translations. #i18n.defaultLocale:"en" tilemap.url:'http: //webrd02 .is.autonavi.com /appmaptile ?lang=zh_cn&size=1&scale=1&style=7&x={x}&y={y}& z={z}' 2,重启kibana服务。 1 2 3 4 5 6 7 8 9 10 11 12 13 [root@localhostbin] #/usr/local/kibana/bin/kibana& [1]10631 [root@localhostbin] #ps-ef|grepkibana root1063177952110:52pts /0 00:00:02 /usr/local/kibana/bin/ .. /node/bin/node --no-warnings /usr/local/kibana/bin/ .. /src/cli root106437795010:52pts /0 00:00:00 grep --color=autokibana [root@localhostbin] #log[02:52:59.297][info][status][plugin:kibana@5.4.0]Statuschangedfromuninitializedtogreen-Ready log[02:52:59.445][info][status][plugin:elasticsearch@5.4.0]Statuschangedfromuninitializedtoyellow-Waiting for Elasticsearch log[02:52:59.482][info][status][plugin:console@5.4.0]Statuschangedfromuninitializedtogreen-Ready log[02:52:59.512][info][status][plugin:elasticsearch@5.4.0]Statuschangedfromyellowtogreen-Kibanaindexready log[02:52:59.513][info][status][plugin:metrics@5.4.0]Statuschangedfromuninitializedtogreen-Ready log[02:53:00.075][info][status][plugin:timelion@5.4.0]Statuschangedfromuninitializedtogreen-Ready log[02:53:00.080][info][listening]Serverrunningathttp: //192 .168.180.23:5601 log[02:53:00.081][info][status][uisettings]Statuschangedfromuninitializedtogreen-Ready 3,创建nginx的访问索引lostash-map*。具体步骤如下:ip:5601--->Management--Index Patterns--->+--->在Index name or pattern中添加logstash-map*--->create。具体如下图: 4,创建Visualize。具体步骤如下:Visalize--->+--->Maps(Tile Maps) 本文转自 lqbyz 51CTO博客,原文链接:http://blog.51cto.com/liqingbiao/1940469

优秀的个人博客,低调大师

思科管在RSA:安全行业需要做得更好

“如果你知道将要受到影响,你会以不同的方式保证安全吗?” “如今安全行业不得不回答这个问题,因为正面临着越来越多的数据泄漏有针对性的攻击。”思科首席安全架构师、SourceFire创始人Martin Roesch本周四旧金山举行的2015 RSA大会主题演讲中这样表示。 “今天我们所面临的现实是非常有趣的。我们真的需要做得更好。”Roesch这样说道。“不仅仅是关于创建、生产和出货新的安全技术以逐步改善这个问题。……要比这做得更好。这实际上不是一个选择,而是一个要求。” 目前需要改变的一件事情是安全基础,例如修补、配置管理、身份和访问管理,大多数公司的安全基础对这些方面没有覆盖全面,Roesch表示。 “这是一个巨大的问题。我们甚至都没有打好基础,但却又面临非常高级的威胁,这些威胁擅长闯入被努力加固过的防御体系。” 对于其中很多公司来说,这个问题的原因是,安全行业存在明显的碎片化。Roesch表示,一般他了解的一些公司有30到60种安全解决方案不能很好地一起工作。 “现在我们有一个大问题。”Roesch表示。“这个问题就是我们解决安全的方法就是通过购买大量不同的技术,以及试图让这些技术彼此进行互操作……这是不行的。显然这些技术无法彼此兼容,因为很难合成这些信息使其转化为感知和回应。” Roesch建议安全行业可以改善的方式之一,就是采用一种集成的威胁防御体系。Roesch称,虽然一些机构已经开始使用SIEM或者日志管理系统来进行集成,但是安全行业需要更进一步,让环境内部的独立厂商数据外部化,并将其集成到一个集中化的可视平台中,而不是抽象这些数据。 “我认为这是非常可行的。”Roesch表示。“我们已经看到,当部署得当的时候这个方法将是非常强大的。作为一个规则,我认为这些可视平台是需要构建的。” 如果在这之上更进一步的话,Roesch建议在这个集成的威胁防御架构之上推动系统性的响应,不管是在防御方面还是响应方面。在一个环境无约束损害的更为极端的情况下,Roesch提出了一种网络故障安全的想法,在这种情况下,部分或者整个网络应该在发生损害的时候被关闭。 Roesch表示,底线是,不管是他提议的是解决方案还是其他方法,安全行业都需要加大力度。 “继续保持我们一直惯有的方式做事情,这真的不是一个选择。我们需要新方法、新方式,我们需要让我们的安全基础设施协同工作起来……我相信现在是时候了。”Roesch这样表示。 作者:杨昀煦 来源:51CTO

优秀的个人博客,低调大师

法国铁采用IBM Watson IoT技术,提升安全性

法国国家铁路公司日前宣布将采用IBM Watson IoT技术,透过在车厢与车站加装传感器并利用获得的数据管理旗下设备,预计可提升铁路质量、安全与列车的利用率。 法国国家铁路公司(SNCF)日前宣布将采用IBM Watson IoT技术,透过在车厢与车站加装传感器并利用获得的数据管理旗下设备,预计可提升铁路质量、安全与列车的利用率。 据SmartCitiesWorld报导,SNCF管理法国境内长达3万公里轨道、1.5万部列车与3,000个车站需要的排程、营运与维护工作,目前上述地点都已或即将安装数千个传感器。 该公司技术官Raphael Viard指出,SNCF使用IoT主要基于三个核心原则,也就是必须锁定将商业路线流程数字化并涵盖下列三个基础:安全、平台即服务(data platform-as-a-service)部署模式以及善用巨量数据给予决策支持。因此,Watson平台便成为工业化SNCF IoT策略的关键。 为了收集与分析数据,SNCF正开发可安装在轨道与列车的特制工业传感器,该传感器可安全地实时传送大量数据点至在IBM Cloud的IBM Watson IoT平台。 例如在巴黎线,新一代列车将安装2,000个传感器,每月可传输7万数据点,而且有别于过去必须单独手动检查列车,目前工程师已可在远程一次观察最多200辆行驶中的列车可能的车门失常或空调问题。 另外,透过预测何时会需要维修,将可避免列车无法执勤并避免更多的昂贵修理费用。除此之外,透过实时信息,维修团队也可立即获得铁路基础建设更新状态并在需要时,提供专业团队早期预警。 IBM总经理Harriet Green指出,透过这次结合Watson IoT、传感器数据与SNCF工程师三方合作,将让乘客可从最少的停机时间与实时服务中获益。 本文转自d1net(转载)

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。

用户登录
用户注册