使用python logging处理多机多进程写同一个日志文件

2024-04-18 08:32

本文主要是介绍使用python logging处理多机多进程写同一个日志文件,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

MemoryHandler的性能问题:

如果target是StreamHandler的子类
上是有严重的IO性能问题
是一个for调用handler,
handler中的处理侧是 io.write(), io.flush()
立马的flush到硬盘中,并有多次flush,io性能很差




logging模块本身是支持多线程写同一个文件的。但对多进程写同一个文件并没有现在成的代码支持。

如tornado的多进程模式与django的fastcgi (flup)多进程模式的场境,写日志都可以应用以下代码:

CS结构

server代码如下, 应该是09 年的项目代码:

#coding:utf8
#author:TooNTonG 2011-11-07from SocketServer import ThreadingTCPServer, StreamRequestHandler
import logging.config
import logging.handlers as lhandlers
import os
import struct
import cPickleLOG_BIND_PORT = 20001class LogRequestHandler(StreamRequestHandler):def handle(self):while 1:chunk = self.connection.recv(4)if len(chunk) < 4:breakslen = struct.unpack(">L", chunk)[0]chunk = self.connection.recv(slen)while len(chunk) < slen:chunk = chunk + self.connection.recv(slen - len(chunk))obj = self.unPickle(chunk)# 使用SocketHandler发送过来的数据包,要使用解包成为LogRecord# 看SocketHandler文档record = logging.makeLogRecord(obj)self.handleLogRecord(record)def unPickle(self, data):return cPickle.loads(data)def handleLogRecord(self, record):logger = logging.getLogger(record.name)logger.handle(record)def startLogSvr(bindAddress, requestHandler):svr = ThreadingTCPServer(bindAddress, requestHandler)svr.serve_forever()def addHandler(name, handler):logger = logging.getLogger(name)logger.addHandler(handler)fmt = logging.Formatter('%(asctime)s - %(levelname)s - %(name)s - %(message)s')handler.setFormatter(fmt)logger.setLevel(logging.NOTSET)def memoryWapper(handler, capacity):hdlr = lhandlers.MemoryHandler(capacity, target = handler)hdlr.setFormatter(handler.formatter)return hdlrdef main():path, dirname = os.path, os.path.dirnamepth = dirname((path.realpath(__file__)))filename = path.join(dirname(pth), 'log', 'logging.log')
#    logging.config.fileConfig(pth + r'/logging.conf')# 最终写到文件中hdlr = lhandlers.RotatingFileHandler(filename,maxBytes = 1024,backupCount = 3)# 还可以一个memoryhandler,达到一定数据或是有ERROR级别再flush到硬盘hdlr = memoryWapper(hdlr, 1024)addHandler('core', hdlr)print 'OK: logerserver running...'startLogSvr(('0.0.0.0', LOG_BIND_PORT), LogRequestHandler)if __name__ == "__main__":main()


再帖上客户端代码:

#coding:utf8
#author: TooNTonG 2012-11-07import logging
import logging.handlers as handlersAPP_NAME = 'app1'
LOG_SVR_HOST = '127.0.0.1'
LOG_SVR_PORT = 20001# 此logger name必需与服务端中有相应的logger处理handler
# 如果服务端logging.getLogger()返回空,会使用root处理
LOGGER_NAME = 'core'def getSocketLogger(name, level, host, port, memoryCapacity):target = handlers.SocketHandler(host, port)if memoryCapacity > 0:hdlr = handlers.MemoryHandler(memoryCapacity,logging.ERROR, # 此参数是指遇到此级别时,马上flushtarget)else:hdlr = targethdlr.setLevel(level)logger = logging.getLogger(name)logger.addHandler(hdlr)logger.setLevel(level)return loggerdef main():logger = getSocketLogger(LOGGER_NAME,logging.DEBUG, # 如果使用NOTSET,相当warninghost = LOG_SVR_HOST,port = LOG_SVR_PORT,memoryCapacity = 1024)for i in range(10):logger.info('run %s main' % APP_NAME)logger.debug('thisis the debug log by %s' % APP_NAME)logger.warning('thisis the warning log by %s' % APP_NAME)logger.error('thisis the error log by %s' % APP_NAME)logger.critical('thisis the critical log by %s' % APP_NAME)print 'end main'if '__main__' == __name__:main()

如果不设置带名字的logger,就是统一处理了。设置带名字的好处是可以N个不同功能的进程、不在机器上的,服务使用一个logger-server就可以了。


logging.handlers中有很多handler,可以自行进行组装:


这篇关于使用python logging处理多机多进程写同一个日志文件的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/914274

相关文章

python panda库从基础到高级操作分析

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据... 目录1. Pandas 概述2. 基本操作:数据读取与查看3. 索引操作:精准定位数据4. Group

Python pandas库自学超详细教程

《Pythonpandas库自学超详细教程》文章介绍了Pandas库的基本功能、安装方法及核心操作,涵盖数据导入(CSV/Excel等)、数据结构(Series、DataFrame)、数据清洗、转换... 目录一、什么是Pandas库(1)、Pandas 应用(2)、Pandas 功能(3)、数据结构二、安

Spring Boot集成/输出/日志级别控制/持久化开发实践

《SpringBoot集成/输出/日志级别控制/持久化开发实践》SpringBoot默认集成Logback,支持灵活日志级别配置(INFO/DEBUG等),输出包含时间戳、级别、类名等信息,并可通过... 目录一、日志概述1.1、Spring Boot日志简介1.2、日志框架与默认配置1.3、日志的核心作用

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

Python安装Pandas库的两种方法

《Python安装Pandas库的两种方法》本文介绍了三种安装PythonPandas库的方法,通过cmd命令行安装并解决版本冲突,手动下载whl文件安装,更换国内镜像源加速下载,最后建议用pipli... 目录方法一:cmd命令行执行pip install pandas方法二:找到pandas下载库,然后

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比

Python实现网格交易策略的过程

《Python实现网格交易策略的过程》本文讲解Python网格交易策略,利用ccxt获取加密货币数据及backtrader回测,通过设定网格节点,低买高卖获利,适合震荡行情,下面跟我一起看看我们的第一... 网格交易是一种经典的量化交易策略,其核心思想是在价格上下预设多个“网格”,当价格触发特定网格时执行买

Python标准库之数据压缩和存档的应用详解

《Python标准库之数据压缩和存档的应用详解》在数据处理与存储领域,压缩和存档是提升效率的关键技术,Python标准库提供了一套完整的工具链,下面小编就来和大家简单介绍一下吧... 目录一、核心模块架构与设计哲学二、关键模块深度解析1.tarfile:专业级归档工具2.zipfile:跨平台归档首选3.

使用Python构建智能BAT文件生成器的完美解决方案

《使用Python构建智能BAT文件生成器的完美解决方案》这篇文章主要为大家详细介绍了如何使用wxPython构建一个智能的BAT文件生成器,它不仅能够为Python脚本生成启动脚本,还提供了完整的文... 目录引言运行效果图项目背景与需求分析核心需求技术选型核心功能实现1. 数据库设计2. 界面布局设计3

使用IDEA部署Docker应用指南分享

《使用IDEA部署Docker应用指南分享》本文介绍了使用IDEA部署Docker应用的四步流程:创建Dockerfile、配置IDEADocker连接、设置运行调试环境、构建运行镜像,并强调需准备本... 目录一、创建 dockerfile 配置文件二、配置 IDEA 的 Docker 连接三、配置 Do