logstash分析日志

待处理日志格式如下:

[totalCount: 298006556, count: 287347623, queryCount: 259027994, exeCount: 28319629, totalQPS: 10000.0, QPS: 1.0, queryQPS: 1.0, exeQPS: 0.0]
[totalCount: 298006556, count: 287347623, queryCount: 259027994, exeCount: 28319629, totalQPS: 20000.0, QPS: 1.0, queryQPS: 1.0, exeQPS: 0.0]
[totalCount: 298006556, count: 287347623, queryCount: 259027994, exeCount: 28319629, totalQPS: 40000.0, QPS: 1.0, queryQPS: 1.0, exeQPS: 0.0]
[totalCount: 298006556, count: 287347623, queryCount: 259027994, exeCount: 28319629, totalQPS: 100000.0, QPS: 1.0, queryQPS: 1.0, exeQPS: 0.0]

目标是得到每条记录的总QPS,即totalQPS

1、安装logstash。

2、编写logstash处理配置文件,创建一个test.conf文件,内容如下:

input {
     file {
        path => "/home/vagrant/logstash/logstash-2.2.2/dbpool-logs/dev/test.log"
        start_position => "beginning"
    }
}
filter {
       grok {
           match => { "message" => "\[%{USERNAME}\: %{INT:totalCount}\, %{USERNAME}\: %{INT:count}\, %{USERNAME}\: %{INT:queryCount}\, %{USERNAME}\: %{INT:exeCount}\, %{USERNAME}\: %{BASE10NUM:totalQPS}\, %{USERNAME}\: %{BASE10NUM:QPS}\, %{USERNAME}\: %{BASE10NUM:queryQPS}\, %{USERNAME}\: %{BASE10NUM:exeQPS}\]" }
      }
}
output {
    if "_grokparsefailure" in [tags] {
    }else{
        file {
             path => "/home/vagrant/logstash/logstash-2.2.2/dbpool-logs/dev/test-%{+yyyy-MM-dd}.log"
             message_format => "总QPS为%{totalQPS}"
        }
    }
}
  • 指定输入日志为/home/vagrant/logstash/logstash-2.2.2/dbpool-logs/dev/test.log。
  • filter为按照日志格式的匹配过滤规则。
  • 最后以一定的格式输出到/home/vagrant/logstash/logstash-2.2.2/dbpool-logs/dev/test-%{+yyyy-MM-dd}.log。

3、启动logstash开始处理,./bin/logstash -f conf/test.conf

4、处理后生成文件test-xxx.log,内容为:

总QPS为10000.0
总QPS为20000.0
总QPS为40000.0
总QPS为100000.0

5、后面如果有日志继续写入test.log则会将解析结果追加到test-xxxx.log文件中。

========广告时间========

鄙人的新书《Tomcat内核设计剖析》已经在京东销售了,有需要的朋友可以到 https://item.jd.com/12185360.html 进行预定。感谢各位朋友。

为什么写《Tomcat内核设计剖析》

=========================

时间: 2024-11-05 18:59:32

logstash分析日志的相关文章

利用Eventlog Analyzer分析日志

原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 .作者信息和本声明.否则将追究法律责任.http://chenguang.blog.51cto.com/350944/925298 利用EventlogAnalyzer分析日志 ManageEngineEventLogAnalyzer是一个基于Web技术.实时的事件监控管理解决方案,能够提高企业网络安全.减少工作站和服务器的宕机事件.EventLog采用无代理的结构从分布式主机上收集事件日志,也可以从UNIX主机.路由器.交换机及其

系统无法找到AWStats分析日志后写分析文件的目录导致的问题

'DirData' parameter (./data) does not exist问题的解决 [root@localhost cgi-bin]#./awstats.pl -update -config=123 Error: AWStats database directory defined in config file by 'DirData' parameter (./data) does not exist or is not writable. Check config file,

各位大神请教下flume和logstash在日志收集方面的性能哪一个更好一些呢?

问题描述 各位大神请教下flume和logstash在日志收集方面的性能哪一个更好一些呢? 最近要做一个日志收集,把日志放到kafaka上不知道到这俩哪个收集日志的性能更好一些

spark分析日志 用scala写 该怎么入手啊?

问题描述 spark分析日志用scala写该怎么入手啊? 解决方案 解决方案二:学了Scala语言就知道怎么写啦

如何检索和分析日志文件

摘要: 作为SEOer,我们使用的各种各样的工具,以收集各式各样的技术问题,网站分析,抓取诊断,百度站长工具等.所有这些工具是有用的,但都无法比拟在网站日志数据分析搜索引擎蜘蛛 作为SEOer,我们使用的各种各样的工具,以收集各式各样的技术问题,网站分析,抓取诊断,百度站长工具等.所有这些工具是有用的,但都无法比拟在网站日志数据分析搜索引擎蜘蛛抓取,就像Googlebot到爬取您的网站并您的网站上留下了一个真实的记录.这是网络服务器日志.日志是一个强大的源数据经常没有得到充分利用,但有助于保持您

用EXCEL表格详细分析日志的方法

摘要: 站长们都知道网站日志分析的重要性,但是当拿到网站日志后,面对里面一行行的代码,看的眼花缭乱却无从下手.今天我就给大家介绍一种用EXCEL表格详细分析日志的方法,希望对大 站长们都知道网站日志分析的重要性,但是当拿到网站日志后,面对里面一行行的代码,看的眼花缭乱却无从下手.今天我就给大家介绍一种用EXCEL表格详细分析日志的方法,希望对大家有所帮助. 首先我们新建一个EXCEL文件,将日志文件导入到EXCEL表格中. 在数据->导入外部数据->导入数据,打开选取数据源框,如下图 然后找到

Spark-项目中分析日志的核心代码

代码 LogRecord 类: case class LogRecord ( clientIpAddress: String, rfc1413ClientIdentity: String, remoteUser: String, ` dateTime: String, //[day/month/year:hour:minute:second zone] request: String, httpStatusCode: String, bytesSent: String, referer: Str

分析日志中访问最大的前100IP

有一个10G大的apache访问日志,要求找出访问/stat.php面页次数大于10000次的前100个IP. 日志样本:211.11.129.181 - [26/Mar/2015:03:00:01 +0800] "GET/stat.php?pid=016 HTTP/1.1" 302 "-" "-" ""Mozllia/4.0(compatible;MSIE 6.0;Windows NT 5.1)" 分析:10G日志

MySQL内核月报 2015.02-TokuDB · 特性分析· 日志详解

TokuDB的日志跟InnoDB不一样,它有两类文件: redo-log文件(以.tokulog[序号]为扩展名) rollback日志文件(tokudb.rollback) 接下来就简单唠唠这两类文件的内部细节. 1) redo-log 记录的不是页而是对Fractal-Tree索引的操作日志. log格式: content里记录的是具体的日志内容,比如insert操作,content就是: TokuDB在做恢复的时候,会找到上次checkpoint时的LSN位置,然后读取log逐条恢复. 为