filebeat源码分析服务启动

2024-05-10 17:58

本文主要是介绍filebeat源码分析服务启动,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在开始源码分析之前先说一下filebeat是什么?beats是知名的ELK日志分析套件的一部分。它的前身是logstash-forwarder,用于收集日志并转发给后端(logstash、elasticsearch、redis、kafka等等)。filebeat是beats项目中的一种beats,负责收集日志文件的新增内容。当前的代码分支是最新的6.x的代码。
先看我们服务启动配置文件的一个例子,这个是filebeat采集k8s的日志的一个例子:

filebeat.prospectors:
- type: logpaths:- /var/lib/docker/containers/*/*-json.log- /var/log/filelog/containers/*/*/*/*.logprocessors:
- add_docker_metadata:host: "unix:///var/run/docker.sock"
- add_fields:fields:log: '{message}'
- decode_json_fields:when:regexp:message: "{*}"fields: ["message"]overwrite_keys: truetarget: ""
- drop_fields:fields: ["docker.container.labels.annotation.io.kubernetes.container.terminationMessagePath", "docker.container.labels.annotation.io.kubernetes.container.hash", "docker.container.labels.annotation.io.kubernetes.container.terminationMessagePolicy", "docker.container.labels.annotation.io.kubernetes.pod.terminationGracePeriod", "beat.version", "docker.container.labels.annotation.io.kubernetes.container.ports", "docker.container.labels.io.kubernetes.container.terminationMessagePath", "docker.container.labels.io.kubernetes.container.restartCount", "docker.container.labels.io.kubernetes.container.ports", "docker.container.labels.io.kubernetes.container.hash", "docker.container.labels.io.kubernetes.pod.terminationGracePeriod", "docker.container.labels.annotation.io.kubernetes.container.restartCount", "message"]
- parse_level:levels: ["fatal", "error", "warn", "info", "debug"]field: "log"logging.level: info
setup.template.enabled: true
setup.template.name: "filebeat-%{+yyyy.MM.dd}"
setup.template.pattern: "filebeat-*"
setup.template.fields: "${path.config}/fields.yml"
setup.template.overwrite: true
setup.template.settings:index:analysis:analyzer:enncloud_analyzer:filter: ["standard", "lowercase", "stop"]char_filter: ["my_filter"]type: customtokenizer: standardchar_filter:my_filter:type: mappingmappings: ["-=>_"]output:elasticsearch:hosts: ["paasdev.enncloud.cn:9200"]index: "filebeat-%{+yyyy.MM.dd}"

filebeat启动时候会加载这个配置文件。再看看总结的接口libbeat/beat/beat.go

type Beater interface {// The main event loop. This method should block until signalled to stop by an// invocation of the Stop() method.Run(b *Beat) error// Stop is invoked to signal that the Run method should finish its execution.// It will be invoked at most once.Stop()
}

这个是每个beat都需要实现的两个接口,当然filebeat也不例外,filebeat/beater/filebeat.go
这个里面是filebeat的具体实现,篇幅有限就,省略的粘贴一下

// Run allows the beater to be run as a beat.
func (fb *Filebeat) Run(b *beat.Beat) error {var err errorconfig := fb.configif !fb.moduleRegistry.Empty() {err = fb.loadModulesPipelines(b)if err != nil {return err}}// Setup registrar to persist stateregistrar, err := registrar.New(config.RegistryFile, config.RegistryFlush, finishedLogger)if err != nil {logp.Err("Could not init registrar: %v", err)return err}err = b.Publisher.SetACKHandler(beat.PipelineACKHandler{ACKEvents: newEventACKer(registrarChannel).ackEvents,})if err != nil {logp.Err("Failed to install the registry with the publisher pipeline: %v", err)return err}crawler, err := crawler.New(channel.NewOutletFactory(outDone, b.Publisher, wgEvents).Create,config.Prospectors,b.Info.Version,fb.done,*once)if err != nil {logp.Err("Could not init crawler: %v", err)return err}err = registrar.Start()if err != nil {return fmt.Errorf("Could not start registrar: %v", err)}var pipelineLoaderFactory fileset.PipelineLoaderFactoryif b.Config.Output.Name() == "elasticsearch" {pipelineLoaderFactory = newPipelineLoaderFactory(b.Config.Output.Config())} else {logp.Warn(pipelinesWarning)}err = crawler.Start(registrar, config.ConfigProspector, config.ConfigModules, pipelineLoaderFactory)if err != nil {crawler.Stop()return err}var adiscover *autodiscover.Autodiscoverif fb.config.Autodiscover != nil {adapter := NewAutodiscoverAdapter(crawler.ProspectorsFactory, crawler.ModulesFactory)adiscover, err = autodiscover.NewAutodiscover("filebeat", adapter, config.Autodiscover)if err != nil {return err}}adiscover.Start()return nil
}// Stop is called on exit to stop the crawling, spooling and registration processes.
func (fb *Filebeat) Stop() {logp.Info("Stopping filebeat")// Stop Filebeatclose(fb.done)
}

上面的代码省略的介绍了start和stop的函数,stop天简单,就是一个关闭的总开关,就不说了。
详细分析一下这个start方法,它是整个filebeat最核心的地方。
filebeat支持采集特定程序的日志,譬如redis、nginx等,这些都是通过module支持的,所以在程序开始时候先确定elasticsearch里面有没有这些关联的pipeline、ingest,

    if !fb.moduleRegistry.Empty() {err = fb.loadModulesPipelines(b)if err != nil {return err}}

深入看看注册方法

func (fb *Filebeat) loadModulesPipelines(b *beat.Beat) error {if b.Config.Output.Name() != "elasticsearch" {logp.Warn(pipelinesWarning)return nil}// 这里注册一个回调的方法,每当和一个es建立连接的时候,都会重新和es确认这些pipelinecallback := func(esClient *elasticsearch.Client) error {return fb.moduleRegistry.LoadPipelines(esClient)}elasticsearch.RegisterConnectCallback(callback)return nil
}

上面的代码主要是先和es确认一下pipeline,下面接着看启动,然后就创建registrar,registrar是啥呢?

registrar, err := registrar.New(config.RegistryFile, config.RegistryFlush, finishedLogger)if err != nil {logp.Err("Could not init registrar: %v", err)return err}

其实它是注册日志读取进度的,通过记录offset,下面就是我截取的一段registry文件。

{"source":"/var/lib/docker/containers/e892ad615535e877c8af5856bd27631937d050d00b4ca55554bec41e3391685f/e892ad615535e877c8af5856bd27631937d050d00b4ca55554bec41e3391685f-json.log","offset":0,"timestamp":"2017-11-29T17:01:28.645203497Z","ttl":-1,"type":"log","FileStateOS":{"inode":526963,"device":64769}}

这个json文件里面保存了容器和对应的offset,这样当filebeat重启过后则能继续工作。

然后创建crawler,这个是负责日志采集的。

crawler, err := crawler.New(channel.NewOutletFactory(outDone, b.Publisher, wgEvents).Create,config.Prospectors,b.Info.Version,fb.done,*once)

通过config.Prospectors,crawler就知道采集哪些目标。然后就通过

err = crawler.Start(registrar, config.ConfigProspector, config.ConfigModules, pipelineLoaderFactory)if err != nil {crawler.Stop()return err}

启动采集任务。下面看看具体启动任务地方,filebeat/crawler/crawler.go

for _, prospectorConfig := range c.prospectorConfigs {err := c.startProspector(prospectorConfig, r.GetStates())if err != nil {return err}}

就来到filebeat/prospector/prospector.go里面

func (p *Prospector) Run() {// Initial prospector runp.prospectorer.Run()// Shuts down after the first complete run of all prospectorsif p.Once {return}for {select {case <-p.done:logp.Info("Prospector ticker stopped")returncase <-time.After(p.config.ScanFrequency):logp.Debug("prospector", "Run prospector")p.prospectorer.Run()}}
}

这个prospectorer.Run是一个接口,可以支持从UDP/STDIN/LOG/REDIS/DOCKER里面直接获取日志,我们看一个log的filebeat/prospector/log/prospector.go

func (p *Prospector) Run() {
...
p.scan()
...
}

这里如果发现文件需要被采集,则创建采集任务

if lastState.IsEmpty() {logp.Debug("prospector", "Start harvester for new file: %s", newState.Source)err := p.startHarvester(newState, 0)if err != nil {logp.Err("Harvester could not be started on new file: %s, Err: %s", newState.Source, err)}} else {p.harvestExistingFile(newState, lastState)
}

startHarvester启动日志采集,还是相同的套路,先创建createHarvester,然后启动harvesters.Start(h)。
这个里面通过for死循环里面执行

message, err := h.reader.Next()

这样分批读取。启动程序的内容先说到这里。还有很多细节后面逐一描述。

这篇关于filebeat源码分析服务启动的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/977149

相关文章

Nginx分布式部署流程分析

《Nginx分布式部署流程分析》文章介绍Nginx在分布式部署中的反向代理和负载均衡作用,用于分发请求、减轻服务器压力及解决session共享问题,涵盖配置方法、策略及Java项目应用,并提及分布式事... 目录分布式部署NginxJava中的代理代理分为正向代理和反向代理正向代理反向代理Nginx应用场景

Linux创建服务使用systemctl管理详解

《Linux创建服务使用systemctl管理详解》文章指导在Linux中创建systemd服务,设置文件权限为所有者读写、其他只读,重新加载配置,启动服务并检查状态,确保服务正常运行,关键步骤包括权... 目录创建服务 /usr/lib/systemd/system/设置服务文件权限:所有者读写js,其他

Redis中的有序集合zset从使用到原理分析

《Redis中的有序集合zset从使用到原理分析》Redis有序集合(zset)是字符串与分值的有序映射,通过跳跃表和哈希表结合实现高效有序性管理,适用于排行榜、延迟队列等场景,其时间复杂度低,内存占... 目录开篇:排行榜背后的秘密一、zset的基本使用1.1 常用命令1.2 Java客户端示例二、zse

Redis中的AOF原理及分析

《Redis中的AOF原理及分析》Redis的AOF通过记录所有写操作命令实现持久化,支持always/everysec/no三种同步策略,重写机制优化文件体积,与RDB结合可平衡数据安全与恢复效率... 目录开篇:从日记本到AOF一、AOF的基本执行流程1. 命令执行与记录2. AOF重写机制二、AOF的

Java服务实现开启Debug远程调试

《Java服务实现开启Debug远程调试》文章介绍如何通过JVM参数开启Java服务远程调试,便于在线上排查问题,在IDEA中配置客户端连接,实现无需频繁部署的调试,提升效率... 目录一、背景二、相关图示说明三、具体操作步骤1、服务端配置2、客户端配置总结一、背景日常项目中,通常我们的代码都是部署到远程

MyBatis Plus大数据量查询慢原因分析及解决

《MyBatisPlus大数据量查询慢原因分析及解决》大数据量查询慢常因全表扫描、分页不当、索引缺失、内存占用高及ORM开销,优化措施包括分页查询、流式读取、SQL优化、批处理、多数据源、结果集二次... 目录大数据量查询慢的常见原因优化方案高级方案配置调优监控与诊断总结大数据量查询慢的常见原因MyBAT

分析 Java Stream 的 peek使用实践与副作用处理方案

《分析JavaStream的peek使用实践与副作用处理方案》StreamAPI的peek操作是中间操作,用于观察元素但不终止流,其副作用风险包括线程安全、顺序混乱及性能问题,合理使用场景有限... 目录一、peek 操作的本质:有状态的中间操作二、副作用的定义与风险场景1. 并行流下的线程安全问题2. 顺

MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决

《MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决》MyBatis默认开启一级缓存,同一事务中循环调用查询方法时会重复使用缓存数据,导致获取的序列主键值均为1,... 目录问题原因解决办法如果是存储过程总结问题myBATis有如下代码获取序列作为主键IdMappe

Java中最全最基础的IO流概述和简介案例分析

《Java中最全最基础的IO流概述和简介案例分析》JavaIO流用于程序与外部设备的数据交互,分为字节流(InputStream/OutputStream)和字符流(Reader/Writer),处理... 目录IO流简介IO是什么应用场景IO流的分类流的超类类型字节文件流应用简介核心API文件输出流应用文

java 恺撒加密/解密实现原理(附带源码)

《java恺撒加密/解密实现原理(附带源码)》本文介绍Java实现恺撒加密与解密,通过固定位移量对字母进行循环替换,保留大小写及非字母字符,由于其实现简单、易于理解,恺撒加密常被用作学习加密算法的入... 目录Java 恺撒加密/解密实现1. 项目背景与介绍2. 相关知识2.1 恺撒加密算法原理2.2 Ja