asp.net core结合NLog搭建ELK实时日志分析平台

2023-11-06 15:08

本文主要是介绍asp.net core结合NLog搭建ELK实时日志分析平台,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、介绍ELK


 

1、说明(此篇ELK采用rpm的方式安装在服务器上)-牛刀小试

承接上一篇文章的内容asp.net core添加全局异常处理及log4net、Nlog应用准备部署ELK来展示asp.net core 的数据。目前此篇文章只用到单台服务器,等下一篇将会介绍如何做到集群部署ELK+filebeat+MQ,因为这个集群部署才是真正体现大项目的价值。当然如果是小项目或者是内部项目单台足以。

当然ELK只是在业界用的比较多,但是里面所用的工具是可以替换的,比如说 如下:

体现价值的解决方案就是:es+kibana+filebeat/logstash+MQ(RabbitMQ/Kfaka) 来实现日志记录等。 

多介绍一下吧:

Beats包含四种工具:

  Packetbeat(搜集网络流量数据)
  Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)
  Filebeat(搜集文件数据)
  Winlogbeat(搜集 Windows 事件日志数据)
  它是一个轻量级的日志收集处理工具(Agent)

 

自此,解决方案很多,关键在于不同的项目用不同的解决方案,关键看大家的选择啦。当然如果大家有兴趣可以加一下QQ群,可以互相探讨技术。

 

如果大家对NLog不会部署,请看上一篇文章:asp.net core添加全局异常处理及log4net、Nlog应用

好了接下来就要开始部署啦,请准备你们的服务器和VS吧。

 

2、环境说明

软件版本
CentOS7.4
Dockerce-18.06
Elasticsearch5.5.0
Logstash5.5.0
Kibana5.5.0
VS20172017

 

介绍一下ELK实时日志分析平台。

Elasticsearch:是个开源分布式搜索引擎,提供收集、分析、存储数据三大功能,它的特点:分布式、零配置、自动发现、索引自动分片、索引副本机制、restful风格接口、多数据源、自动搜索负载等。

Logstash:主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为c/s架构,client端安装在需要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操作在一并发往elasticsearch上去。

Kibana:Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。

 

二、部署ELK


 

目前由于我在公司部署的ELK,在使用docker下载官方的ELK镜像时,无法下载。因此我在家里的时候就把ELK所需要的镜像下载好后放在阿里云的镜像仓库中,然后在公司的电脑里面直接下载,速度比较快。

如果有碰到以上下载镜像问题的同学,可以尝试我这中办法。

0、前提需要安装JAVA环境

命令:
wget --no-check-certificate --no-cookie --header "Cookie: oraclelicense=accept-securebackup-cookie;" http://download.oracle.com/otn-pub/java/jdk/8u181-b13/96a7b8442fe848ef90c96a2fad6ed6d1/jdk-8u181-linux-x64.rpm

 

如果发现 下载地址失效请登录:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 这个链接找寻下载地址

 

安装JDK8:
rpm -ivh jdk-8u181-linux-x64.rpm

检查 JDK是否安装成功:
java -version

 

1、部署Elasticsearch

安装
官方文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/index.html
官方网站有很多安装方式,这里采用rpm安装。

//进入local目录
cd /usr/local


//创建elasticsearch文件夹

mkdir elasticsearch


//进入elasticsearch文件夹
cd elasticsearch


//开始下载
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.5.0.rpm


//开始安装
rpm -ivh elasticsearch-5.5.0.rpm

 

配置

//查找安装目录
whereis elasticsearch


//进入安装目录
cd /etc/elasticsearch


//编辑配置文件
vi elasticsearch.yml

 

主要配置Network.host(本机ip)和http.port(默认9200)(目前单节点模式,其他参数请参考官方文档)

 640?wx_fmt=png

 

启动服务

//开启端口9200
firewall-cmd --add-port=9200/tcp --permanent


//重新加载配置
firewall-cmd --reload

//设置服务开机启动
systemctl enable elasticsearch


//启动服务
systemctl start elasticsearch

 

在浏览器打开http://192.168.161.191:9200/,如下图所示表示启动成功了

640?wx_fmt=png

 

2、部署kibana

官网文档:https://www.elastic.co/guide/en/kibana/current/index.html

安装

//进入elasticsearch目录
cd /usr/local/elasticsearch


//下载Kibana rpm 64位包
wget https://artifacts.elastic.co/downloads/kibana/kibana-5.5.0-x86_64.rpm


//安装Kibana
rpm -ivh kibana-5.5.0-x86_64.rpm

 

配置

//进入安装目录
cd /etc/kibana


//编辑配置文件
vi kibana.yml

 

设置端口号:5601,Host地址:"192.168.161.191" ,elasticsearch服务地址为:"http://192.168.161.191:9200"

640?wx_fmt=png

 

启动服务

//开启端口5601
firewall-cmd --add-port=5601/tcp --permanent


//重新加载配置
firewall-cmd --reload

//设置服务开机启动
systemctl enable kibana


//启动服务
systemctl start kibana

 

在浏览器打开http://192.168.161.191:5601,将进入到Kibana管理界面

640?wx_fmt=png

 

3、部署logstash

官方文档:https://www.elastic.co/guide/en/logstash/current/index.html

安装

//进入elasticsearch目录
cd /usr/local/elasticsearch


//下载logstash rpm包
wget https://artifacts.elastic.co/downloads/logstash/logstash-5.5.0.rpm


//安装rpm包
rpm -ivh logstash-5.5.0.rpm

 

配置

//进入安装目录
cd /etc/logstash


//进入conf.d目录
cd conf.d


//新增配置信息
vi nlog.conf

 

640?wx_fmt=png

 

直接在logstash.conf配置即可。


input{
         tcp{
                 host=> "192.168.161.191"
                 port=>8001
         }
}
filter{
         grok{
                 match=>{
                         "message" => "#%{DATA:request_time}#%{DATA:log_level}#%{DATA:log_info}#"
                 }
         }
}
output{
         elasticsearch{
                 hosts=>[ "192.168.161.191:9200" ]
                 index=> "default"
                 document_type=> "logs"
         }
}

  


input:采用TCP监控本机8001端口的消息
filter:使用grok 插件,自定义消息格式,推荐使用grokdebug在线进行调试
output:使用elasticsearch作为数据存储

 

5、重启修改配置后的logstash

如果是上面的第二种方式,采用tcp端口,则重启需要配置 8001端口
即: -p 8001:8001

docker run -d --restart always -p 8001:8001 --name logstash -v /home/logstashdata/config:/usr/share/logstash/config -v /home/logstashdata/pipeline:/usr/share/logstash/pipeline logstash:6.3.0

 

启动服务

//开启端口8001
firewall-cmd --add-port=8001/tcp --permanent


//重载配置
firewall-cmd --reload

//设置开机启动
systemctl enable logstash


//启动logstash
systemctl start logstash

三、asp.net core 结合NLog


 

1、在项目中的nlog/config文件中添加内容如下:


<?xml version= "1.0"  encoding= "utf-8"  ?>
<nlog xmlns= "http://www.nlog-project.org/schemas/NLog.xsd"
       xmlns:xsi= "http://www.w3.org/2001/XMLSchema-instance"
       autoReload= "true" >
   <!-- the targets to write to -->
   <targets>
     <!-- 输出到文件,这个文件记录所有的日志 -->
     <target xsi:type= "File"  name= "allfile"  fileName= "Log\LogAll\${shortdate}.htm"
                  layout= "<HR COLOR=red>${longdate}<BR>${logger}<BR>${uppercase:${level}}<BR>${message} ${exception}<HR Size=1>"  />
     <!-- 输出到文件,这个文件记录错误日志 -->
     <target xsi:type= "File"  name= "logError"  fileName= "Log\LogError\${shortdate}.htm"
             layout= "<HR COLOR=red>【异常时间】:${date} <BR>【异常级别】:${level:uppercase=true} <BR>${message}<HR Size=1>"  />
     <!-- 输出到文件,这个文件记录操作日志 -->
     <target xsi:type= "File"  name= "logInfo"  fileName= "Log\LogInfo\${shortdate}.htm"
                  layout= "<HR COLOR=red>【操作时间】:${date} <BR>【操作级别】:${level:uppercase=true} <BR>${message}<HR Size=1>"   />
     <target xsi:type= "Network"  name= "ownLog-tcp-Info"  keepConnection= "false"  address = "tcp://192.168.161.191:8001"
                  layout= "#【操作时间】:${date} #【操作级别】:${level:uppercase=true} #${message}#" />
     <target xsi:type= "Network"  name= "ownLog-tcp-Error"  keepConnection= "false"  address = "tcp://192.168.161.191:8001"
                  layout= "#【异常时间】:${date} #【异常级别】:${level:uppercase=true} #${message}#" />
   </targets>
   <!-- rules to map  from  logger name to target -->
   <rules>
     <!--All logs, including  from  Microsoft-->
     <logger name= "*"  minlevel= "Trace"  writeTo= "allfile"  />
     <logger name= "*"  minlevel= "Error"  writeTo= "logError"  />
     <logger name= "*"  minlevel= "Info"  writeTo= "logInfo"  />
     <logger name= "*"  minlevel= "Info"  writeTo= "ownLog-tcp-Info"  />
     <logger name= "*"  minlevel= "Error"  writeTo= "ownLog-tcp-Error"  />
     <!--Skip non-critical Microsoft logs and so log only own logs-->
     <logger name= "Microsoft.*"  maxLevel= "Trace"  final= "true"  />
     <!--<logger name= "DotNetCore.CAP.*"  maxLevel= "Info"  final= "true"  />
     <logger name= "IdentityServer4.*"  maxLevel= "Info"  final= "true"  />-->
   </rules>
</nlog>

  

配置结束,运行项目。

打开kibana,添加一下索引,当然这个索引名称需要和上面在logstash中的es索引一样,因为是要根据索引名称来查找数据的。

 640?wx_fmt=png

 

 添加索引完后,就可以查看数据啦。

640?wx_fmt=png

 

等下一篇部署在Docker上。拭目以待吧。 

 参考文档:https://www.cnblogs.com/piscesLoveCc/p/7230426.html

原文地址:https://www.cnblogs.com/guolianyu/p/9600659.html


 

.NET社区新闻,深度好文,欢迎访问公众号文章汇总 http://www.csharpkit.com

640?wx_fmt=jpeg

这篇关于asp.net core结合NLog搭建ELK实时日志分析平台的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/357358

相关文章

Nginx分布式部署流程分析

《Nginx分布式部署流程分析》文章介绍Nginx在分布式部署中的反向代理和负载均衡作用,用于分发请求、减轻服务器压力及解决session共享问题,涵盖配置方法、策略及Java项目应用,并提及分布式事... 目录分布式部署NginxJava中的代理代理分为正向代理和反向代理正向代理反向代理Nginx应用场景

vite搭建vue3项目的搭建步骤

《vite搭建vue3项目的搭建步骤》本文主要介绍了vite搭建vue3项目的搭建步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学... 目录1.确保Nodejs环境2.使用vite-cli工具3.进入项目安装依赖1.确保Nodejs环境

Nginx搭建前端本地预览环境的完整步骤教学

《Nginx搭建前端本地预览环境的完整步骤教学》这篇文章主要为大家详细介绍了Nginx搭建前端本地预览环境的完整步骤教学,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录项目目录结构核心配置文件:nginx.conf脚本化操作:nginx.shnpm 脚本集成总结:对前端的意义很多

Redis中的有序集合zset从使用到原理分析

《Redis中的有序集合zset从使用到原理分析》Redis有序集合(zset)是字符串与分值的有序映射,通过跳跃表和哈希表结合实现高效有序性管理,适用于排行榜、延迟队列等场景,其时间复杂度低,内存占... 目录开篇:排行榜背后的秘密一、zset的基本使用1.1 常用命令1.2 Java客户端示例二、zse

Redis中的AOF原理及分析

《Redis中的AOF原理及分析》Redis的AOF通过记录所有写操作命令实现持久化,支持always/everysec/no三种同步策略,重写机制优化文件体积,与RDB结合可平衡数据安全与恢复效率... 目录开篇:从日记本到AOF一、AOF的基本执行流程1. 命令执行与记录2. AOF重写机制二、AOF的

idea+spring boot创建项目的搭建全过程

《idea+springboot创建项目的搭建全过程》SpringBoot是Spring社区发布的一个开源项目,旨在帮助开发者快速并且更简单的构建项目,:本文主要介绍idea+springb... 目录一.idea四种搭建方式1.Javaidea命名规范2JavaWebTomcat的安装一.明确tomcat

MyBatis Plus大数据量查询慢原因分析及解决

《MyBatisPlus大数据量查询慢原因分析及解决》大数据量查询慢常因全表扫描、分页不当、索引缺失、内存占用高及ORM开销,优化措施包括分页查询、流式读取、SQL优化、批处理、多数据源、结果集二次... 目录大数据量查询慢的常见原因优化方案高级方案配置调优监控与诊断总结大数据量查询慢的常见原因MyBAT

分析 Java Stream 的 peek使用实践与副作用处理方案

《分析JavaStream的peek使用实践与副作用处理方案》StreamAPI的peek操作是中间操作,用于观察元素但不终止流,其副作用风险包括线程安全、顺序混乱及性能问题,合理使用场景有限... 目录一、peek 操作的本质:有状态的中间操作二、副作用的定义与风险场景1. 并行流下的线程安全问题2. 顺

C#利用Free Spire.XLS for .NET复制Excel工作表

《C#利用FreeSpire.XLSfor.NET复制Excel工作表》在日常的.NET开发中,我们经常需要操作Excel文件,本文将详细介绍C#如何使用FreeSpire.XLSfor.NET... 目录1. 环境准备2. 核心功能3. android示例代码3.1 在同一工作簿内复制工作表3.2 在不同

MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决

《MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决》MyBatis默认开启一级缓存,同一事务中循环调用查询方法时会重复使用缓存数据,导致获取的序列主键值均为1,... 目录问题原因解决办法如果是存储过程总结问题myBATis有如下代码获取序列作为主键IdMappe