yarn ResourceManager Active频繁易主问题排查

2024-09-04 17:18

本文主要是介绍yarn ResourceManager Active频繁易主问题排查,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

    • 一、故障现象
    • 二、问题分析
      • RM的HA机制分析
      • ZK问题分析
      • 部分任务状态更新失败问题分析
    • 三、解决和优化方案
      • 1. 调大 jute.maxbuffer 参数
      • 2. 修改yarn的源码
      • 3. 快速让集群恢复稳定的方法
    • 四、总结

本周三公司的yarn集群出现故障,导致两台ResourceManger频繁易主,并且许多提交到集群的任务状态为 NEW_SAVING,无法执行。这里对此次的故障排查进行一个总结。

一、故障现象

  1. 两个节点的ResourceManger频繁在active和standby角色中切换。不断有active易主的告警发出
  2. 许多任务的状态没能成功更新,导致一些任务状态卡在NEW_SAVING无法进入调度(还有许多资源空闲)

看了下ResourceManger的日志,发现大量以下错误:

org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss

在这里插入图片描述
在这里插入图片描述

从日志可以看出是在操作zk时出现了错误,并且会进行重试。RM在重试1000次后才会放弃尝试。并且从日志可以看出,这是在更新任务appattempt_1535616282827_1432747_000002的状态时发生的异常

紧接着后面还发现另外一条日志,表示此时RM的状态进入了standby:

2019-03-20 14:37:48,914 INFO org.apache.hadoop.yarn.server.resourcemanager.ResourceManager: Transitioning to standby state

RM进入standby状态前会将对应的ZK节点/yarn/ActiveStandbyElectorLock删除,然后再转到standby状态。这时两台RM同时开始竞争尝试新建/yarn/ActiveStandbyElectorLock节点,谁竞争到谁就是active。

成为active的节点又收到appattempt_1535616282827_1432747_000002的状态更新,就尝试更新zk节点的数据,然后又发生上面的错误,重试1000次后转为standby。如此一直重复下去,直到人为介入kill了该任务,集群才恢复正常。

因为是zk操作的问题,所以看了下zk的日志,也发现了异常:

2019-03-20 14:37:40,141 [myid:1] - WARN  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:NIOServerCnxn@362] - Exception causing close of session 0x16324e8243d0003 due to java.io.IOException: Len error 2186401
2019-03-20 14:37:40,142 [myid:1] - INFO  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:NIOServerCnxn@1007] - Closed socket connection for client /192.168.142.10:23412 which had sessionid 0x16324e8243d0003

从日志上看,只有appattempt_1535616282827_1432747_000002这个任务状态会更新失败,其他任务的状态都可以正常更新,有一些任务会因为zk连接被关闭而更新失败,这个后面解释原因。

二、问题分析

RM的HA机制分析

之前一直以为RM只有在和zk失联,/yarn/ActiveStandbyElectorLock节点断开后才会进行易主。但是这次的异常却颠覆了我的认知。于是去跟了下yarn的源码。发现还有一种情况可能导致RM从active状态切换到standby状态。

RM在进行任务状态更新时,会进行对应的zk操作,也就是将任务的相关信息存储到zk。如果这个失败,RM会进行重试,这个重试的次数可以通过yarn.resourcemanager.zk-num-retries配置,默认是1000次。当对应的zk操作失败重试达到1000次,RM就会将状态切换到standby

具体可能导致active切换成standby的操作有以下这些:

  1. storeApplicationStateInternal
  2. updateApplicationStateInternal
  3. removeApplicationStateInternal
  4. storeApplicationAttemptStateInternal
  5. updateApplicationAttemptStateInternal
  6. storeRMDelegationTokenState
  7. removeRMDelegationTokenState
  8. updateRMDelegationTokenState
  9. storeRMDTMasterKeyState
  10. removeRMDTMasterKeyState
  11. storeOrUpdateAMRMTokenSecretManagerState

所以我们上面的故障很明显就是在某个任务的updateApplicationAttemptStateInternal操作出现异常后,才导致active在两个RM节点间不断切换的。

如果配置了多个RM,客户端根据yarn-site.xml的配置会采用round-robin的方式逐个去连接RM,直到找到active 节点位置。所以即使active节点切换,在运行中的客户端也能通过这种方式重新找到新的Active RM进行连接。

ZK问题分析

上面的故障其实归根结底还是zk的问题。zk的这条日志Exception causing close of session 0x16324e8243d0003 due to java.io.IOException: Len error 2186401也很明确的表明是由于客户端发来的请求包太大,zk主动关闭了连接。

上网搜了下zk的Len error的问题,发现也有一些人碰到过。甚至找到两个相关的issue,一个是yarn的,一个是zookeeper的:

https://issues.apache.org/jira/browse/YARN-3469

https://issues.apache.org/jira/browse/ZOOKEEPER-706

其中zk的issue是说如果一个请求要注册的watcher太多,会导致Len error的问题。因此这个issue的patch是将这些watcher分成多个请求发送,这样就不会导致请求过大的问题了。刚好修复版本是3.4.7,而我们集群用的zk版本是3.4.6

yarn的issue是说之前的版本设置了过多无用的watcher,导致某个请求太大,出现Len error的问题。因此yarn这边做的修复是不在注册无用的watcher。修复版本是2.6.0,我们集群用的版本是2.7.4,因此我们集群应该不会有这个问题

因为排查时已经无法找到那个请求包的具体内容,这两个issue看上去又很有说服力。虽然yarn已经修复了注册过多无用watcher的,但是可能还有一些地方还有类似的问题呢。

本来以为问题大概就是这样了,我们已经准备升级zk版本了。突然又想到失败的zk操作是updateApplicationAttemptStateInternal,它底层的zk操作是setData,而setData是不会注册任何watcher的。因此这个问题和watcher没有任何关系。

后面继续排查,发现下面这篇博客:

https://www.jishuwen.com/d/2BBc/zh-hk#tuit

和我们的故障现象很像,于是追到了博客提到的yarn的issue:

https://issues.apache.org/jira/browse/YARN-2368

ResourceManager failed when ZKRMStateStore tries to update znode data larger than 1MB。也就是我们遇到的问题。就是要更新的任务信息过大导致的,和watcher没有关系

这issue并没有修复的版本,看了下它的patch,就是加了一个配置,用来指定jute.maxbuffer,也就是通过调大zk的阀值来避免出现该问题

部分任务状态更新失败问题分析

从日志看,只有appattempt_1535616282827_1432747_000002这个任务因为更新内容过大导致zk操作失败。但是故障时看到的现象确实许多任务状态都卡在NEW_SAVING无法更新。这是为什么呢?

通过分析日志,可以很容易得出结论。RM在更新appattempt_1535616282827_1432747_000002状态失败时,zk服务端主动断掉了连接,RM在下次重试时就会再次尝试建立连接。

因为任务状态更新用的zk连接可能是同一个,如果要更新时刚好连接被关闭了,任务肯定无法成功更新。因此才会有部分任务状态可以更新,部分任务状态无法更新的现象。

在RM的日志中我们也可以看到许多下面的Broken pipe异常:

在这里插入图片描述

三、解决和优化方案

1. 调大 jute.maxbuffer 参数

通过调大jute.maxbuffer来让zk可以接受更大的请求包而不会抛出IOException。这个参数的默认值是1M。

注意,这个不是在zk的配置文件中设置。而是作为java参数在启动zk时设置,也就是-Djute.maxbuffer=xxxx的方式

另外,根据zk的文档,这个参数在所有的客户端和zk服务端都要设置,否则会有更多的问题产生。也就是说,我们需要在yarn这边也设置这个参数。

这种方式有点治标不治本,因为我们无法知道任务信息最大可能到多少。设置过大的值也不是个好主意。最重要的是这个方案要同时对yarn和zk进行重启,风险略高。

2. 修改yarn的源码

虽然知道了问题的原因所在,但是我们还不知道为什么那个任务会产生那么大的任务信息。所以我们对zk的端口进行抓包查看正常的任务信息的请求都有多大:

在这里插入图片描述

通过抓包的结果,我们发现正常任务包的大小其实都只有几K,最高不会超过5K。所以我们打算修改yarn的源码过滤掉那些大小超过1M的任务更新请求,同时把这些大于1M的请求内容打印出来。

这样做一方面是为了避免后面因为某个任务的更新失败又导致集群出现问题,另一方面也可以观察到为什么有的任务会产生那么大的信息。

附上更新的代码,ZKRMStateStore#updateApplicationAttemptStateInternal()

    byte[] attemptStateData = attemptStateDataPB.getProto().toByteArray();//测试环境可以加上下面这个日志,实时观察各个任务信息的大小
LOG.info(String.format("attempId:%s,len:%s",attemptStateDataPB.getAttemptId(),attemptStateData.length));//如果任务信息超过了950K,就打出error日志,输出任务信息,同时直接返回,不再往zk发送请求if(attemptStateData.length > 972800){LOG.error(String.format("attemptStateData len larger than 1M.len:%s,nodeUpdatePath:%s,data:%s,attemptId:%s,Diagnostics:%s,traceUrl:%s,container%s",attemptStateData.length,nodeUpdatePath,String.valueOf(attemptStateData),attemptStateDataPB.getAttemptId(),attemptStateDataPB.getDiagnostics(),attemptStateDataPB.getFinalTrackingUrl(),attemptStateDataPB.getMasterContainer()));return;}//往zk发送请求更新任务信息if (existsWithRetries(nodeUpdatePath, false) != null) {setDataWithRetries(nodeUpdatePath, attemptStateData, -1);} else {createWithRetries(nodeUpdatePath, attemptStateData, zkAcl,CreateMode.PERSISTENT);LOG.debug(appAttemptId + " znode didn't exist. Created a new znode to"+ " update the application attempt state.");}

3. 快速让集群恢复稳定的方法

如果集群又发生了类似的问题,可以找到任务的ApplicationMaster所在的Container,然后上目标服务器将对应的Container进程kill掉,后面RM就不会再更新该任务的信息,而是将任务直接转为Kill状态。

四、总结

此次故障大概持续了2个半小时才恢复,还是刚好业务同学手动kill了那个任务的container进程,最终才没有一直切换下去。

因为之前对yarn只有原理上的认知,并没有看过yarn的代码,对yarn状态机的相关知识也了解不多。所以在故障发生时有点手足无措,不知道从何下手排查。

此刻回想起来真的很侥幸,因为这个故障不是重启一下RM就能恢复的。如果业务同学没有刚好kill那个container进程,可能我们要一直排查到分析出问题的根本原因为止,至少要多半天的时间。

后面还是要多看看集群各个组件的源码,深入了解他们的架构,争取出现问题时能更快的定位到问题并修复。

这篇关于yarn ResourceManager Active频繁易主问题排查的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/1136540

相关文章

电脑蓝牙连不上怎么办? 5 招教你轻松修复Mac蓝牙连接问题的技巧

《电脑蓝牙连不上怎么办?5招教你轻松修复Mac蓝牙连接问题的技巧》蓝牙连接问题是一些Mac用户经常遇到的常见问题之一,在本文章中,我们将提供一些有用的提示和技巧,帮助您解决可能出现的蓝牙连接问... 蓝牙作为一种流行的无线技术,已经成为我们连接各种设备的重要工具。在 MAC 上,你可以根据自己的需求,轻松地

Java 中的跨域问题解决方法

《Java中的跨域问题解决方法》跨域问题本质上是浏览器的一种安全机制,与Java本身无关,但Java后端开发者需要理解其来源以便正确解决,下面给大家介绍Java中的跨域问题解决方法,感兴趣的朋友一起... 目录1、Java 中跨域问题的来源1.1. 浏览器同源策略(Same-Origin Policy)1.

如何清理MySQL中的binlog问题

《如何清理MySQL中的binlog问题》:本文主要介绍清理MySQL中的binlog问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目http://www.chinasem.cn录清理mysql中的binlog1.查看binlog过期时间2. 修改binlog过期

如何解决yum无法安装epel-release的问题

《如何解决yum无法安装epel-release的问题》:本文主要介绍如何解决yum无法安装epel-release的问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不... 目录yum无法安装epel-release尝试了第一种方法第二种方法(我就是用这种方法解决的)总结yum

IDEA下"File is read-only"可能原因分析及"找不到或无法加载主类"的问题

《IDEA下Fileisread-only可能原因分析及找不到或无法加载主类的问题》:本文主要介绍IDEA下Fileisread-only可能原因分析及找不到或无法加载主类的问题,具有很好的参... 目录1.File is read-only”可能原因2.“找不到或无法加载主类”问题的解决总结1.File

idea中project的显示问题及解决

《idea中project的显示问题及解决》:本文主要介绍idea中project的显示问题及解决方案,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录idea中project的显示问题清除配置重China编程新生成配置总结idea中project的显示问题新建空的pr

redis在spring boot中异常退出的问题解决方案

《redis在springboot中异常退出的问题解决方案》:本文主要介绍redis在springboot中异常退出的问题解决方案,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴... 目录问题:解决 问题根源️ 解决方案1. 异步处理 + 提前ACK(关键步骤)2. 调整Redis消费者组

Ubuntu上手动安装Go环境并解决“可执行文件格式错误”问题

《Ubuntu上手动安装Go环境并解决“可执行文件格式错误”问题》:本文主要介绍Ubuntu上手动安装Go环境并解决“可执行文件格式错误”问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未... 目录一、前言二、系统架构检测三、卸载旧版 Go四、下载并安装正确版本五、配置环境变量六、验证安装七、常见

解决Java异常报错:java.nio.channels.UnresolvedAddressException问题

《解决Java异常报错:java.nio.channels.UnresolvedAddressException问题》:本文主要介绍解决Java异常报错:java.nio.channels.Unr... 目录异常含义可能出现的场景1. 错误的 IP 地址格式2. DNS 解析失败3. 未初始化的地址对象解决

springboot+vue项目怎么解决跨域问题详解

《springboot+vue项目怎么解决跨域问题详解》:本文主要介绍springboot+vue项目怎么解决跨域问题的相关资料,包括前端代理、后端全局配置CORS、注解配置和Nginx反向代理,... 目录1. 前端代理(开发环境推荐)2. 后端全局配置 CORS(生产环境推荐)3. 后端注解配置(按接口