kubelet gc源码分析

2024-05-10 17:58
文章标签 分析 源码 gc kubelet

本文主要是介绍kubelet gc源码分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

kubelet是负载干活的组件,它会定期的清理多余死掉的容器和镜像,这篇blog基于kubernetes1.7.6的代码,关于gc的深入源码分析
好了,先看gc是随着kubelet启动而启动的pkg/kubelet/kubelet.go,

func (kl *Kubelet) StartGarbageCollection() {loggedContainerGCFailure := falsego wait.Until(func() {if err := kl.containerGC.GarbageCollect(); err != nil {glog.Errorf("Container garbage collection failed: %v", err)kl.recorder.Eventf(kl.nodeRef, v1.EventTypeWarning, events.ContainerGCFailed, err.Error())loggedContainerGCFailure = true} else {var vLevel glog.Level = 4if loggedContainerGCFailure {vLevel = 1loggedContainerGCFailure = false}glog.V(vLevel).Infof("Container garbage collection succeeded")}}, ContainerGCPeriod, wait.NeverStop)prevImageGCFailed := falsego wait.Until(func() {if err := kl.imageManager.GarbageCollect(); err != nil {if prevImageGCFailed {glog.Errorf("Image garbage collection failed multiple times in a row: %v", err)// Only create an event for repeated failureskl.recorder.Eventf(kl.nodeRef, v1.EventTypeWarning, events.ImageGCFailed, err.Error())} else {glog.Errorf("Image garbage collection failed once. Stats initialization may not have completed yet: %v", err)}prevImageGCFailed = true} else {var vLevel glog.Level = 4if prevImageGCFailed {vLevel = 1prevImageGCFailed = false}glog.V(vLevel).Infof("Image garbage collection succeeded")}}, ImageGCPeriod, wait.NeverStop)
}

上面代码分别启动的容器的gc(containerGC.GarbageCollect())和镜像的gc(imageManager.GarbageCollect()),
先看容器的gc pkg/kubelet/kuberuntime/kuberuntime_gc.go,

func (cgc *containerGC) GarbageCollect(gcPolicy kubecontainer.ContainerGCPolicy, allSourcesReady bool, evictNonDeletedPods bool) error {// Remove evictable containersif err := cgc.evictContainers(gcPolicy, allSourcesReady, evictNonDeletedPods); err != nil {return err}// Remove sandboxes with zero containersif err := cgc.evictSandboxes(evictNonDeletedPods); err != nil {return err}// Remove pod sandbox log directoryreturn cgc.evictPodLogsDirectories(allSourcesReady)
}

这里删除容器分为两个部分,一个是删除业务容器,一个是删除Sandbox容器,当然最后都会去删除他们的日志目录。

业务容器删除

先看删除业务容器的过程

func (cgc *containerGC) evictContainers(gcPolicy kubecontainer.ContainerGCPolicy, allSourcesReady bool, evictNonDeletedPods bool) error {// Separate containers by evict units.evictUnits, err := cgc.evictableContainers(gcPolicy.MinAge)if err != nil {return err}// Remove deleted pod containers if all sources are ready.if allSourcesReady {for key, unit := range evictUnits {if cgc.isPodDeleted(key.uid) || evictNonDeletedPods {cgc.removeOldestN(unit, len(unit)) // Remove all.delete(evictUnits, key)}}}// Enforce max containers per evict unit.if gcPolicy.MaxPerPodContainer >= 0 {cgc.enforceMaxContainersPerEvictUnit(evictUnits, gcPolicy.MaxPerPodContainer)}// Enforce max total number of containers.if gcPolicy.MaxContainers >= 0 && evictUnits.NumContainers() > gcPolicy.MaxContainers {// Leave an equal number of containers per evict unit (min: 1).numContainersPerEvictUnit := gcPolicy.MaxContainers / evictUnits.NumEvictUnits()if numContainersPerEvictUnit < 1 {numContainersPerEvictUnit = 1}cgc.enforceMaxContainersPerEvictUnit(evictUnits, numContainersPerEvictUnit)// If we still need to evict, evict oldest first.numContainers := evictUnits.NumContainers()if numContainers > gcPolicy.MaxContainers {flattened := make([]containerGCInfo, 0, numContainers)for key := range evictUnits {flattened = append(flattened, evictUnits[key]...)}sort.Sort(byCreated(flattened))cgc.removeOldestN(flattened, numContainers-gcPolicy.MaxContainers)}}return nil
}

上面的代码做的多层判断,首先是删除超过gcPolicy.MinAge时间死掉pod的容器,然后删除单个pod运行最大死亡容器gcPolicy.MaxPerPodContainer,最后是删除整个机器上面死亡容器的上限。
evictContainers是过去可以驱逐的容器(退出且超过gcPolicy.MinAge时间的容器)具体看下面:

func (cgc *containerGC) evictableContainers(minAge time.Duration) (containersByEvictUnit, error) {containers, err := cgc.manager.getKubeletContainers(true)...for _, container := range containers {if container.State == runtimeapi.ContainerState_CONTAINER_RUNNING {continue}createdAt := time.Unix(0, container.CreatedAt)if newestGCTime.Before(createdAt) {continue}...
}

然后是删除单个pod死亡容器上限的

func (cgc *containerGC) enforceMaxContainersPerEvictUnit(evictUnits containersByEvictUnit, MaxContainers int) {for key := range evictUnits {toRemove := len(evictUnits[key]) - MaxContainersif toRemove > 0 {evictUnits[key] = cgc.removeOldestN(evictUnits[key], toRemove)}}
}

最后是删除超过上限的死亡容器

numContainers := evictUnits.NumContainers()if numContainers > gcPolicy.MaxContainers {flattened := make([]containerGCInfo, 0, numContainers)for key := range evictUnits {flattened = append(flattened, evictUnits[key]...)}sort.Sort(byCreated(flattened))cgc.removeOldestN(flattened, numContainers-gcPolicy.MaxContainers)}

Sandbox容器删除

然后是删除Sandbox容器,这里pkg/kubelet/kuberuntime/kuberuntime_gc.go

func (cgc *containerGC) evictSandboxes(evictNonDeletedPods bool) error {containers, err := cgc.manager.getKubeletContainers(true)if err != nil {return err}sandboxes, err := cgc.manager.getKubeletSandboxes(true)if err != nil {return err}sandboxesByPod := make(sandboxesByPodUID)for _, sandbox := range sandboxes {podUID := types.UID(sandbox.Metadata.Uid)sandboxInfo := sandboxGCInfo{id:         sandbox.Id,createTime: time.Unix(0, sandbox.CreatedAt),}// Set ready sandboxes to be active.if sandbox.State == runtimeapi.PodSandboxState_SANDBOX_READY {sandboxInfo.active = true}// 查询这个Sandbox是否有关联容器hasContainers := falsesandboxID := sandbox.Idfor _, container := range containers {if container.PodSandboxId == sandboxID {hasContainers = truebreak}}if hasContainers {sandboxInfo.active = true}sandboxesByPod[podUID] = append(sandboxesByPod[podUID], sandboxInfo)}// Sort the sandboxes by age.for uid := range sandboxesByPod {sort.Sort(sandboxByCreated(sandboxesByPod[uid]))}for podUID, sandboxes := range sandboxesByPod {if cgc.isPodDeleted(podUID) || evictNonDeletedPods {// 如果这个pod是要被驱逐出这台机器的话,所以的Sandbox直接全部回收cgc.removeOldestNSandboxes(sandboxes, len(sandboxes))} else {// 如果不是则保留最新的一个cgc.removeOldestNSandboxes(sandboxes, len(sandboxes)-1)}}return nil
}

与上面业务容器不同的是,Sandbox的删除需要满足三个条件,缺一不可,第一是必须不能是ready状态的,第二Sandbox不能关联容器,第三如果pod不在这个节点上可以全部删除,如果仍然在这个节点上,则还需要保留最新的一个。

这篇关于kubelet gc源码分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/977152

相关文章

Android 缓存日志Logcat导出与分析最佳实践

《Android缓存日志Logcat导出与分析最佳实践》本文全面介绍AndroidLogcat缓存日志的导出与分析方法,涵盖按进程、缓冲区类型及日志级别过滤,自动化工具使用,常见问题解决方案和最佳实... 目录android 缓存日志(Logcat)导出与分析全攻略为什么要导出缓存日志?按需过滤导出1. 按

Linux中的HTTPS协议原理分析

《Linux中的HTTPS协议原理分析》文章解释了HTTPS的必要性:HTTP明文传输易被篡改和劫持,HTTPS通过非对称加密协商对称密钥、CA证书认证和混合加密机制,有效防范中间人攻击,保障通信安全... 目录一、什么是加密和解密?二、为什么需要加密?三、常见的加密方式3.1 对称加密3.2非对称加密四、

MySQL中读写分离方案对比分析与选型建议

《MySQL中读写分离方案对比分析与选型建议》MySQL读写分离是提升数据库可用性和性能的常见手段,本文将围绕现实生产环境中常见的几种读写分离模式进行系统对比,希望对大家有所帮助... 目录一、问题背景介绍二、多种解决方案对比2.1 原生mysql主从复制2.2 Proxy层中间件:ProxySQL2.3

python使用Akshare与Streamlit实现股票估值分析教程(图文代码)

《python使用Akshare与Streamlit实现股票估值分析教程(图文代码)》入职测试中的一道题,要求:从Akshare下载某一个股票近十年的财务报表包括,资产负债表,利润表,现金流量表,保存... 目录一、前言二、核心知识点梳理1、Akshare数据获取2、Pandas数据处理3、Matplotl

python panda库从基础到高级操作分析

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据... 目录1. Pandas 概述2. 基本操作:数据读取与查看3. 索引操作:精准定位数据4. Group

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比

MySQL 内存使用率常用分析语句

《MySQL内存使用率常用分析语句》用户整理了MySQL内存占用过高的分析方法,涵盖操作系统层确认及数据库层bufferpool、内存模块差值、线程状态、performance_schema性能数据... 目录一、 OS层二、 DB层1. 全局情况2. 内存占js用详情最近连续遇到mysql内存占用过高导致

深度解析Nginx日志分析与499状态码问题解决

《深度解析Nginx日志分析与499状态码问题解决》在Web服务器运维和性能优化过程中,Nginx日志是排查问题的重要依据,本文将围绕Nginx日志分析、499状态码的成因、排查方法及解决方案展开讨论... 目录前言1. Nginx日志基础1.1 Nginx日志存放位置1.2 Nginx日志格式2. 499

Olingo分析和实践之EDM 辅助序列化器详解(最佳实践)

《Olingo分析和实践之EDM辅助序列化器详解(最佳实践)》EDM辅助序列化器是ApacheOlingoOData框架中无需完整EDM模型的智能序列化工具,通过运行时类型推断实现灵活数据转换,适用... 目录概念与定义什么是 EDM 辅助序列化器?核心概念设计目标核心特点1. EDM 信息可选2. 智能类

Olingo分析和实践之OData框架核心组件初始化(关键步骤)

《Olingo分析和实践之OData框架核心组件初始化(关键步骤)》ODataSpringBootService通过初始化OData实例和服务元数据,构建框架核心能力与数据模型结构,实现序列化、URI... 目录概述第一步:OData实例创建1.1 OData.newInstance() 详细分析1.1.1