日志服务接入方式之loghub log4j appender

Loghub Log4j Appender介绍

Log4j是Apache的一个开放源代码项目,通过使用Log4j,我们可以控制日志信息输送的目的地是控制台、文件、GUI组件、甚至是套接口服务器、NT的事件记录器、UNIX Syslog守护进程等;我们也可以控制每一条日志的输出格式;通过定义每一条日志信息的级别,我们能够更加细致地控制日志的生成过程。最令人感兴趣的就是,这些可以通过一个配置文件来灵活地进行配置,而不需要修改应用的代码。

Log4j由三个重要的组件构成:日志信息的优先级,日志信息的输出目的地,日志信息的输出格式。日志信息的优先级从高到低有ERROR、WARN、INFO、DEBUG,分别用来指定这条日志信息的重要程度;日志信息的输出目的地指定了日志将打印到控制台还是文件中;而输出格式则控制了日志信息的显示内容。

使用Loghub Log4j Appender,您可以控制日志的输出目的地为阿里云日志服务,有一点需要特别注意,Loghub Log4j Appender不支持设置日志的输出格式,写到日志服务中的日志的样式如下:

level:ERROR
location:test.TestLog4jAppender.main(TestLog4jAppender.java:18)
message:test log4j appender
thread:main
time:2016-05-27T03:15+0000

level是日志级别,location是日志打印语句的代码位置,message是日志内容,thread是线程名称,time是日志打印时间。

使用Loghub Log4j Appender的好处

  1. 客户端日志不落盘:既数据生产后直接通过网络发往服务端。
  2. 对于已经使用log4j记录日志的应用,只需要简单修改配置文件就可以将日志传输到日志服务。
  3. 异步高吞吐,Loghub Log4j Appender会将用户的日志merge之后异步发送,提高网络IO效率。

使用方法

Step 1: maven工程中引入依赖。

<dependency>
    <groupId>com.aliyun.openservices</groupId>
    <artifactId>log-loghub-log4j-appender</artifactId>
    <version>0.1.3</version>
</dependency>

Step 2: 修改log4j.properties文件(不存在则在项目根目录创建),配置根Logger,其语法为:

log4j.rootLogger = [level] , appenderName1, appenderName2, …

其中,level 是日志记录的优先级,优先级从高到低分别是ERROR、WARN、INFO、DEBUG。通过在这里定义的级别,您可以控制到应用程序中相应级别的日志信息的开关。比如在这里定义了INFO级别,则应用程序中所有DEBUG级别的日志信息将不被打印出来。
appenderName就是指定日志信息输出到哪个地方。您可以同时指定多个输出目的地,这里的每个appender会对应到具体某一种appender类型,每种appender都会提供一些配置参数。

使用loghub appender的配置如下:

log4j.rootLogger=WARN,loghub
log4j.appender.loghub = com.aliyun.openservices.log.log4j.LoghubAppender
log4j.appender.loghub.projectName = [you project]
log4j.appender.loghub.logstore = [you logstore]
log4j.appender.loghub.endpoint = [your project endpoint]
log4j.appender.loghub.accessKeyId = [your accesskey id]
log4j.appender.loghub.accessKey = [your accesskey]

配置中中括号内的部分是需要填写的,具体含义见下面的说明。

loghub appender配置参数

Loghub Log4j Appender可供配置的参数如下,其中注释为必选参数的是必须填写的,可选参数在不填写的情况下,使用默认值。

#日志服务的project名,必选参数
log4j.appender.loghub.projectName = [you project]
#日志服务的logstore名,必选参数
log4j.appender.loghub.logstore = [you logstore]
#日志服务的http地址,必选参数
log4j.appender.loghub.endpoint = [your project endpoint]
#用户身份标识,必选参数
log4j.appender.loghub.accessKeyId = [your accesskey id]
log4j.appender.loghub.accessKey = [your accesskey]
#当使用临时身份时必须填写,非临时身份则删掉这行配置
log4j.appender.loghub.stsToken=[your ststoken]
#被缓存起来的日志的发送超时时间,如果缓存超时,则会被立即发送,单位是毫秒,可选参数
log4j.appender.loghub.packageTimeoutInMS=5000
#每个缓存的日志包中包含日志数量的最大值,不能超过4096,可选参数
log4j.appender.loghub.logsCountPerPackage=4096
#每个缓存的日志包的大小的上限,不能超过5MB,单位是字节,可选参数
log4j.appender.loghub.logsBytesPerPackage = 5242880
#Appender实例可以使用的内存的上限,单位是字节,默认是100MB,可选参数
log4j.appender.loghub.memPoolSizeInByte=1048576000
#后台用于发送日志包的IO线程的数量,默认值是1,可选参数
log4j.appender.loghub.ioThreadsCount=1
# 输出到日志服务的时间格式,使用java中SimpleDateFormat格式化时间,默认是ISO8601,可选参数
log4j.appender.loghub.timeFormat=yyyy-MM-dd'T'HH:mmZ
log4j.appender.loghub.timeZone=UTC
时间: 2024-10-31 22:33:43

日志服务接入方式之loghub log4j appender的相关文章

日志服务接入方式之log producer library

日志服务(原SLS)团队提供LogHub Producer Library方便客户端接入日志,Producer Library和Consumer Library是对LogHub功能的包装,降低数据收集与消费的门槛. Producer Library解决的问题: 客户端日志不落盘:既数据产生后直接通过网络发往服务端. 客户端高并发写入:例如一秒钟会有百次以上写操作. 客户端计算与IO逻辑分离:打日志不影响计算耗时. 在以上场景中,Producer Library会简化你程序开发的代价,帮助你批量聚

日志服务接入方式之JS篇

本篇主要介绍使用JS SDK收集浏览器端的数据,附件是我们提供的JS库,使用它可以非常方便的收集浏览器端的信息,比如用户操作系统类型.浏览器类型和版本.屏幕分辩率等.除此以外,JS SDK还支持收集用户自定义的数据,比如在事件响应中收集特定的信息. JS SDK提供了一种非常灵活的前端页面代码埋点方式,您可以使用JS SDK将您关心的任何数据写入日志服务,后续可以在日志服务中消费这些数据,比如导入ODPS.OSS,也可以使用Client Library进行自定义消费,下面将介绍下JS SDK的使

日志服务接入方式之Unity 3D篇

Unity3D是由Unity Technologies开发的一个让玩家轻松创建诸如三维视频游戏.建筑可视化.实时三维动画等类型互动内容的多平台的综合型游戏开发工具,是一个全面整合的专业游戏引擎. 日志服务前不久推出了Web Tracking功能,您可以通过Web Tracking功能非常方便的收集Unity 3D的日志,下面以收集Unity Debug.Log为例,讲解如何将Unity日志收集到日志服务中. step 1: 开通Web Tracking功能. 开通方法请参考另外一篇文章:日志服务

阿里云-日志服务-Log4j写入日志

---------Maven依赖--------- <dependency> <groupId>com.aliyun.openservices</groupId> <artifactId>aliyun-log</artifactId> <version>0.6.6</version> </dependency> <dependency> <groupId>com.aliyun.opens

日志服务(原SLS)新功能发布(6)--使用logtail接入syslog数据

Logtail支持通过tcp协议接收syslog日志 Logtail 是日志服务(原SLS)客户端,支持文本类日志数据的收集.考虑到syslog功能是linux平台上广泛使用的日志集中化管理方案,新版本的Logtail将支持syslog数据接入,目前Logtail数据接入方式如下:最左侧是支持syslog日志输出的模块,包括nginx.java语言.路由器.linux服务器等. syslog是什么? 可以参考鸟哥的Linux私房菜. 使用Logtail的syslog功能有哪些优势? 和利用文本文

使用日志服务LogHub替换Kafka

前几天有客户问到,云上有什么服务可以替换Kafka? 怀着程序员的一丝小小的骄傲回复:日志服务(原SLS)下LogHub功能可以完全替代Kafka等产品,并且在性能.易用性和稳定性上更佳. 但客户将信将疑,于是花了一天时间整理一篇文章,简单从各个角度解释下为何建议用户从自搭Kafka换成使用LogHub. 背景信息 Kafka是分布式消息系统,由Linkedin原员工Jay Kreps编写(感兴趣的可以参见这篇文章<The Log: What every software engineer sh

云服务器-[log]关于log4j 创建日志服务的问题

问题描述 [log]关于log4j 创建日志服务的问题 log4j.logger.com.webpayment=info, test1 log4j.appender.test1=org.apache.log4j.net.SocketAppender log4j.appender.test1.RemoteHost=192.168.1.115 log4j.appender.test1.Port=8899 log4j.appender.test1.application=test1 在这个代码中,Re

日志服务(原SLS)新功能发布(5)--使用Logstash接入数据

日志服务结合Logstash 目前,阿里云用户可以通过API/SDK或Logtail将数据写入日志服务,参考. 今天要介绍一个新方法:使用著名开源软件Logstash采集机器日志数据,并结合日志服务插件完成数据上传日志服务功能. 用户可以在阿里云ECS,或者是IDC机房机器,又或者是其它云厂商的虚拟机上安装Logstash及插件,进行简单的配置,轻松地将本机日志数据搬到云上来. IIS日志场景 以Windows平台上最常见的IIS(Internet Information Services)日志

日志服务(SLS) - 通过 Flink 消费Loghub日志

Flink log connector 介绍 Flink log connector是阿里云日志服务提供的,用于对接flink的工具,包括两部分,消费者(Consumer)和生产者(Producer). 消费者用于从日志服务中读取数据,支持exactly once语义,支持shard负载均衡.生产者用于将数据写入日志服务,使用connector时,需要在项目中添加maven依赖: <dependency> <groupId>com.aliyun.openservices</g