能分析压缩的日志,且基于文件输入的PYTHON代码实现

确实感觉长见识了。

希望能坚持,并有多的时间用来分析这些思路和模式。

#!/usr/bin/python
import sys
import gzip
import bz2
from optparse import OptionParser

class LogProcessor(object):
    '''
    Process a combined log format.

    This processor handles log files in a combined format,
    objects that act on the results are passed in to
    the init method as a series of methods.
    '''
    def __init__(self, call_chain=None):
        """
        Setup parser
        Save the call chain. Each time we process a log ,
        we'll run the list of callbacks with the processed
        log results.
        """
        if call_chain is None:
            call_chain = []
        self._call_chain = call_chain
    def split(self, line):
            """
            Split a log file.
            Initially,we just want size and requested file name . so
            we'll split on spaces and pull the data out.
            """
            parts = line.split()

            return {
                'size': 0 if parts[9] == '-' else int(parts[9]),
                'file_requested': parts[6]
            }
    def parse(self, handle):
            """
            Parses the log file.
            Returns a dictionary composed of log entry values
            for easy data summation
            """
            for line in handle:
                fields = self.split(line)
                for func in self._call_chain:
                   func(fields)

class ColumnLogProcessor(LogProcessor):
    def split(self, line):
        parts = line.split()
        return {
            'size': int(parts[1]),
            'file_requested': parts[0]
        }

class MaxSizeHandler(object):
    """
    Check a file's size.
    """
    def __init__(self, size):
        self.size = size
    def process(self, fields):
        """
        Looks at each line individually.
        Looks at each parsed log line individually and
        performs a size calculation. If it's bigger than
        our self.size, we just print a warning.
        """
        if fields['size'] > self.size:
            #print ('Warning: %s exceeds $d bytes (%s) !' % (fields['file_requested'], str(self.size), fields['size']))
            print ('Warning: {0} exceeds {1} bytes {2} !'.format (fields['file_requested'], str(self.size), fields['size']))
def get_stream(path):
    """
    Detect compression.
    If the file name ends in a compression suffix, we'll open
    using the correct algorith. If not, we just return a standard
    file object.
    """
    _open = open
    if path.endswith(',gz'):
        _open = gzip.open
    elif path.endswith('.bz2'):
        _open = bz2.open()
    return _open(path)
if __name__ == '__main__':
    parser = OptionParser()
    parser.add_option('-s', '--size', dest = "size",
                      help = "Maximum File Size Allowed",
                      default = 0, type = "int")
    parser.add_option('-f', '--file', dest = "file",
                      help = "Path to Web Log File",default = "-")
    opts,args = parser.parse_args()
    call_chain = []

    if opts.file == '-':
        file_stream = sys.stdin
    else:
        try:
            #file_stream = open(opts.file, 'r')
            file_stream = get_stream(opts.file)
        except IOError as e:
            print (sys.stderr,str(e))
            sys.exit(-1)

    size_check = MaxSizeHandler(opts.size)
    call_chain.append(size_check.process)
    processor = LogProcessor(call_chain)
    processor.parse(file_stream)
    #processorC = ColumnLogProcessor(call_chain)
    #processorC.parse(file_stream)

时间: 2024-09-18 00:42:23

能分析压缩的日志,且基于文件输入的PYTHON代码实现的相关文章

MS SQL压缩数据库日志方法

数据|数据库|压缩 企业管理器里面的方法:1.打开企业管理器2.打开要处理的数据库3.点击最上面菜单>工具>SQL查询分析器,打开SQL查询分析器4.在输入窗口里面输入: 程序代码: DUMP TRANSACTION [数据库名] WITH NO_LOGBACKUP LOG [数据库名] WITH NO_LOGDBCC SHRINKDATABASE([数据库名]) 点击绿色的小三角(或按F5)执行查询,等状态栏提示处理完成即可! 程序里面的方法:压缩数据库日志--1.清空日志exec('DUM

SQL2005 压缩 清除日志及数据库文件大小

下面的所有库名都指你要处理的数据库的库名 1.清空日志 打开查询分析器,输入命令DUMP TRANSACTION 数据库名 WITH NO_LOG2. 再打开企业管理器--右键你要压缩的数据库--所有任务--收缩数据库--收缩文件--选择日志文件--在 收缩方式里选择收缩至XXM, 这里会给出一个允许收缩到的最小M数,直接输入这个数,确定就可以了.  代码如下 复制代码 DUMP     TRANSACTION     库名     WITH     NO_LOG 2.截断事务日志:  代码如下

sql2005 日志清理 SQL2005压缩清除日志的方法_mssql2005

教你如何清除SQL日志 1.打开查询分析器,输入命令DUMP TRANSACTION 数据库名 WITH NO_LOG2. 再打开企业管理器--右键你要压缩的数据库--所有任务--收缩数据库--收缩文件--选择日志文件--在 收缩方式里选择收缩至XXM, 这里会给出一个允许收缩到的最小M数,直接输入这个数,确定就可以了. 清除Log有两种方法: 1.自动清除法开放数据库选项 Trunc Log on Chkpt,使数据库系统每隔一段时间自动清除Log. 此方法的优点是无须人工干预, 由SQL S

关于实现一个基于文件持久化的EventStore的核心构思

大家知道enode框架的架构是基于ddd+event sourcing的思想.我们持久化的不是聚合根的最新状态,而是聚合根产生的领域事件.最近我在思考如何实现一个基于文件的eventstore.目标有两个: 1.必须要高性能: 2.支持聚合根事件的并发持久化,要确保单个聚合根实例不会保存版本号相同的事件: 事件持久化高性能 经过了一番调研,发现用文件存储事件非常合适.要确保高性能,我们可以顺序写文件(append),然后随机读文件.之所以要随机读文件是因为在当某些command由于操作同一个聚合

Java核心技术卷I基础知识3.7.3 文件输入与输出

3.7.3 文件输入与输出 要想对文件进行读取,就需要一个用File对象构造一个Scanner对象,如下所示:   如果文件名中包含反斜杠符号,就要记住在每个反斜杠之前再加一个额外的反斜杠: "c:\\mydirectory\\myf?ile.txt".       注释:在这里指定了UTF-8字符编码,这对于互联网上的文件很常见(不过并不是普遍适用).读取一个文本文件时,要知道它的字符编码--更多信息参见卷Ⅱ第2章.如果省略字符编码,则会使用运行这个Java程序的机器的"默

高可用日志探险——基于 Kubernetes 中的 ELK

本文讲的是高可用日志探险--基于 Kubernetes 中的 ELK[编者的话]本文主要讲述了作者的团队基于 Kubernetes 中的 ELK,构建高可用日志系统的实践,并总结一些过程中踩到的坑和一些对于从头开始搭建的建议,本文也是此系列文章的第一篇,后续文章可持续关注. [3 天烧脑式基于Docker的CI/CD实战训练营 | 北京站]本次培训围绕基于Docker的CI/CD实战展开,具体内容包括:持续集成与持续交付(CI/CD)概览:持续集成系统介绍:客户端与服务端的 CI/CD 实践:开

Access 中如何使用 ADO 來压缩或修复 MS Access 文件?

access|ado|压缩 Access 中如何使用 ADO 來压缩或修复 MS Access 文件?专题地址:http://access911.net/index.asp?board=4&recordid=71FAB71E  问题: Access 中如何使用 ADO 來压缩或修复 Microsoft Access 文件?   回答: 以前使用 DAO 时,Microsoft 有提供 CompactDatabase Method 來压缩 Microsoft Access 文件,RepairDat

如何使用ADO來压缩或修复Microsoft Access文件

 以前使用 DAO 時,Microsoft 有提供 CompactDatabase Method 來压缩 Microsoft Access 文件,RepairDatabase Method 來修复损坏的 Microsoft Access 文件,.可是自从 ADO 出來之后,好像忘了提供相对的压缩及修复 Microsoft Access 文件的功能. 現在 Microsoft 发现了这个问题了,也提供了解決方法,不过有版本上的限制!限制說明如下: ActiveX Data Objects (ADO

实现基于文件存储的Session类

session 我没事的时候写的自主实现Session功能的类,基于文件方式存储Session数据,测试基本通过,还比较好玩,实际应用没有意义,只不过是学习Session是如何实现的. 一般基于文件存储Session数据效率不是很高,毕竟跟磁盘IO是有关系的,如果需要多台服务器共享数据,可以考虑使用NFS来存储数据,如果需要比较快的速度,可以考虑使用共享内存(shm)来保存数据,直接把Session数据存储路径指定为/dev/shm,这样磁盘IO会提高不少,不过shm空间比较小,一般Linux下