部署Ganglia监控HadoopHbase

2024-04-06 19:08

本文主要是介绍部署Ganglia监控HadoopHbase,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

ganglia的三个组件gmond,gmetad,gweb介绍

ganglia是由这三个服务组成,下面详细介绍一些各自的作用

gmond:

这个好比其他监控软件的agent,是运行在需要监控的主机上面,负责获取监控指标数据,内部采用模块化设计,是基于C语言编写,可以使用C,C++,python等于语言编写模块,采集需要的相关数据。除此之外,还有自带的gmetic工具也可以实现一样的效果。和其他监控系统不同的是,gmond不需要等待外部轮询引擎的监控请求,也不将监控数据直接上传至集中轮询器,而是根据本地配置文件定义的调度方案进行轮询。监控数据时,使用简单的监听接受协议,通过XDR(Exernal Data Representation)在集群主机之间共享。由于默认多播传送,集群内所有主机节点都是知道集群内所有主机当前的数据。轮询器可以通过8649端口向集群内的任意节点请求获取该集群内XML的所有数据。真正对gmond进行轮询,并且获取数据的工具就是我们接下来需要介绍的gmetad组件。

gmetad:

gmond并不是等待被监控系统服务器的唤醒,而是处于激活状态,以便进行数据的测量,传输和共享。gmetad负责整合所有的信息,gmetad轮询器从集群的节点收集数据,并且存储在RRDtool数据库中。当然gmetad也可以从其他的gmetad中轮询数据,而且具有交互查询功能,可以通过外部端口8652进行轮询。

gweb:

上面两个内容涉及到了数据的收集以及数据的存储,那么gweb就是可视化数据,展示数据的服务,以图表形式为大家更直接的展现。gweb无需用户进行任何自定义设置就可以及时访问网络中的任意一台主机任意指标数据。gweb知道网络中存在哪些主机,哪些数据可用。gweb是一个PHP程序,因为要与gmetad的存储RRD数据进行交互,一般都是和gmetad安装在同一台主机上面。gweb是一个独立的发布包,并不是与gmond和gmetad的版本号一致。
--------------------- 

原文:https://blog.csdn.net/dazuiba008/article/details/82220483 



在运维hadoop的时候,经常会遇到一些性能问题。而性能问题,是无法简单通过web页面和log分析出来的。需要很多方面的指标。而Ganglia就是比较实用个监控工具之一。

部署Ganglia,百度一下,很多人已经分享很多。结合众人的经验。并加入自己安装过程中遇到的问题,整理出本文。

1. 准备了2台机器

Server
192.168.0.11(gmetad,web,gmond-master)
Client
192.168.0.12(gmond)

2. Server端需要安装的软件包

● epel包的安装:yum install -y epel-release(解决不能yum安装某些安装包的问题)

● gmetad的安装:yum install -y ganglia-gmetad ganglia-devel

● gmond的安装:yum install -y ganglia-gmond ganglia-gmond-python

● rrdtool的安装:yum install -y rrdtool rrdtool-devel

● httpd服务器的安装:yum install -y httpd

● ganglia-web及php安装:yum install -y ganglia-web php

● 其他依赖包的安装:yum install -y apr-devel zlib-devel libconfuse-devel expat-devel pcre-devel

3. 被监测节点需要安装的软件包

● epel包的安装:yum install -y epel-release(解决不能yum安装某些安装包的问题)

● gmond的安装:yum install -y ganglia-gmond ganglia-gmond-python

4. 安装目录说明

● ganglia配置文件目录:/etc/ganglia

● rrd数据库存放目录:/var/lib/ganglia/rrds

● httpd主站点目录:/var/www/html

● ganglia-web安装目录:/usr/share/ganglia

● ganglia-web配置目录:/etc/httpd/conf.d/ganglia.conf

5. 关闭SELINUX

vi /etc/selinux/config
把SELINUX=enforcing改成SELINUX=disable;
需要重启机器。

6. 关闭防火墙

# chkconfig iptables off
# chkconfig iptables --list
iptables        0:off   1:off   2:off   3:off   4:off   5:off   6:off

7. 配置/etc/ganglia/gmetad.conf

修改data_source,改成:

data_source "testcluster” 192.168.0.11:8650 #gmetad采集数据的目标gmond地址和端口(tcp_accept_channel)

8. 配置gmond

/etc/ganglia/gmond.conf,修改以下内容(这个gmond节点作为收集节点,这个节点可以是多个,最后需要在gmetad.conf上进行配置):

cluster {
name = "testcluster" #设置集群的名称
#owner = "unspecified"
latlong = "unspecified"
url = "unspecified"
}
#发送到目标gmond的地址和端口(单播)
udp_send_channel {
host=192.168.0.11
port = 8649
ttl = 1
}
#接收udp的端口
udp_recv_channel {
port = 8649
}
#gmetad如果过来收集数据请求的端口
tcp_accept_channel {
port = 8650
gzip_output = no
}

9. 配置web

软连接方式

>ln -s /usr/share/ganglia /var/www/ganglia

也可以将/usr/share/ganglia的内容直接复制到/var/www/ganglia

10. 修改/etc/httpd/conf.d/ganglia.conf,改成:

Alias /ganglia /usr/share/ganglia
<Location /ganglia>
Order deny,allow
Allow from all
</Location>

11. 启动服务

#service gmetad start
#service gmond start
#service httpd restart

至此,Ganglia的server端已经部署完成。

 

配置客户端:

12. 客户端只要配置gmond即可(需要先安装yum -y install ganglia-gmond ganglia-gmond-python)

/etc/ganglia/gmond.conf,修改以下内容(这个gmond节点作为收集节点,这个节点可以是多个,最后需要在gmetad.conf上进行配置):

cluster {
name = "testcluster" #设置集群的名称
#owner = "unspecified"
latlong = "unspecified"
url = "unspecified"
}
#发送到目标gmond的地址和端口(单播)
udp_send_channel {
host=192.168.248.130
port = 8649
ttl = 1
}
#接收udp的端口
udp_recv_channel {
port = 8649
}
#gmetad如果过来收集数据请求的端口
tcp_accept_channel {
port = 8650
gzip_output = no
}

13. 配置HDFS、YARN集成Ganglia

修改hadoop-metrics2.properties

# for Ganglia 3.1 support
*.sink.ganglia.class=org.apache.hadoop.metrics2.sink.ganglia.GangliaSink31
*.sink.ganglia.period=10
# default for supportsparse is false
*.sink.ganglia.supportsparse=true
*.sink.ganglia.slope=jvm.metrics.gcCount=zero,jvm.metrics.memHeapUsedM=both
*.sink.ganglia.dmax=jvm.metrics.threadsBlocked=70,jvm.metrics.memHeapUsedM=40
namenode.sink.ganglia.servers=192.168.0.11:8649 # host请参考gmond.conf中的定义
datanode.sink.ganglia.servers=192.168.0.11:8649
resourcemanager.sink.ganglia.servers=192.168.0.11:8649
nodemanager.sink.ganglia.servers=192.168.0.11:8649
mrappmaster.sink.ganglia.servers=192.168.0.11:8649
jobhistoryserver.sink.ganglia.servers=192.168.0.11:8649注意下面参数,如果不过来container的信息收集,可能会造成数据量过大,ganglia的磁盘空间迅速占满。
# Switch off container metrics
*.source.filter.class=org.apache.hadoop.metrics2.filter.GlobFilter
nodemanager.*.source.filter.exclude=*ContainerResource*

14.   HBase集成Ganglia

修改hadoop-metrics2-hbase.properties

*.sink.file*.class=org.apache.hadoop.metrics2.sink.FileSink
# default sampling period
*.period=10
*.source.filter.class=org.apache.hadoop.metrics2.filter.GlobFilter
*.record.filter.class=${*.source.filter.class}
*.metric.filter.class=${*.source.filter.class}
hbase.sink.ganglia.record.filter.exclude=*Regions*
hbase.sink.ganglia.class=org.apache.hadoop.metrics2.sink.ganglia.GangliaSink31
hbase.sink.ganglia.tagsForPrefix.jvm=ProcessName
*.sink.ganglia.period=20
hbase.sink.ganglia.servers=192.168.0.11:8649 # host请参考gmond.conf中的定义

15. 拷贝配置文件到每一个需要监控的机器上

将hadoop-metrics2.properties拷贝到$HADOOP_HOME/etc/hadoop/目录下

将hadoop-metrics2-hbase.properties拷贝到$HBASE_HOME/conf目录下

重新启动hadoop&hbase软件,令其生效。

16. 启动监控端的gmond

service gmond start

 

问题汇总:

  1. 客户端已经有信息传递,能看到整体CPU load等信息

21.png

2. 但是各个节点的信息都是空的,显示“no matching metrics detected or rrds not readable”

22.png

3. 查看RRDs信息

# cd /var/lib/ganglia/rrds

# ll

drwxr-xr-x 5 ganglia ganglia  4096 Jan 17 08:50 azcluster

drwxr-xr-x 2 ganglia ganglia 36864 Jan 17 10:59 __SummaryInfo__

4. 文件夹名是小写的

# ll

drwxr-xr-x 2 ganglia ganglia 32768 Jan 17 10:58 azcbetadnl05.envazure.com

drwxr-xr-x 2 ganglia ganglia  4096 Jan 17 08:47 azcbetaldapl01.envazure.com

drwxr-xr-x 2 ganglia ganglia 36864 Jan 17 10:58 __SummaryInfo__

5. 数据都已经传递过来了

# ls azcbetadnl05.envazure.com/|more

boottime.rrd

bytes_in.rrd

bytes_out.rrd

cpu_aidle.rrd

disk_free_absolute_data1.rrd

disk_free_absolute_data2.rrd

disk_free_absolute_data3.rrd

disk_free_absolute_data4.rrd

disk_free_absolute_data5.rrd

disk_free_absolute_dev_shm.rrd

disk_free_absolute_mnt_resource.rrd

......

6. 原因:/var/lib/ganglia/rrds中对各个节点相应的文件夹是小写,如果节点的hostname中包含大写字母的话,这样就发现找不到数据了。

解决方法:修改gmetad.conf,将case_sensitive_hostnames的值设置为1

# ls /etc/ganglia/

drwxr-xr-x 2 root root 4096 Jan 17 08:36 conf.d

-rw-r--r-- 1 root root  171 Oct 12  2015 conf.php

-rw-r--r-- 1 root root 9834 Jan 17 08:44 gmetad.conf

-rw-r--r-- 1 root root 8756 Jan 17 08:45 gmond.conf

# vi gmetad.conf

# In earlier versions of gmetad, hostnames were handled in a case

# sensitive manner

# If your hostname directories have been renamed to lower case,

# set this option to 0 to disable backward compatibility.

# From version 3.2, backwards compatibility will be disabled by default.

# default: 1   (for gmetad < 3.2)

# default: 0   (for gmetad >= 3.2)

case_sensitive_hostnames 1   #设置为1,则不会将大写变成小写

7. 修改完之后,到RRDs目录下查看结果。

# cd /var/lib/ganglia/rrds/azcluster

没有什么变化

# ls -al

drwxr-xr-x 2 ganglia ganglia 32768 Jan 17 10:58 azcbetadnl05.envazure.com

drwxr-xr-x 2 ganglia ganglia  4096 Jan 17 08:47 azcbetaldapl01.envazure.com

drwxr-xr-x 2 ganglia ganglia 36864 Jan 17 10:58 __SummaryInfo__

8. 重启gmetad,让配置生效

# service gmetad restart
Shutting down GANGLIA gmetad:                              [  OK  ]
Starting GANGLIA gmetad:                                   [  OK  ]

9. 可以看到大写主机名的文件夹已经被创建

# ls -al
drwxr-xr-x 2 ganglia ganglia 32768 Jan 18 02:09 azcbetadnl05.envazure.com
drwxr-xr-x 2 ganglia ganglia  4096 Jan 18 02:10 AZcbetadnL05.envazure.com    <<<<<<
drwxr-xr-x 2 ganglia ganglia  4096 Jan 17 08:47 azcbetaldapl01.envazure.com
drwxr-xr-x 2 ganglia ganglia  4096 Jan 18 02:10 AZcbetaLDAPL01.envazure.com    <<<<<<
drwxr-xr-x 2 ganglia ganglia 36864 Jan 18 02:09 __SummaryInfo__

10. 可以看到信息已经过来了

# ls -l AZcbetaLDAPL01.envazure.com
-rw-rw-rw- 1 ganglia ganglia 630760 Jan 18 02:13 boottime.rrd
-rw-rw-rw- 1 ganglia ganglia 630760 Jan 18 02:13 bytes_in.rrd
-rw-rw-rw- 1 ganglia ganglia 630760 Jan 18 02:13 bytes_out.rrd
-rw-rw-rw- 1 ganglia ganglia 630760 Jan 18 02:13 cpu_aidle.rrd

11. 再看看网页显示,已经正常了。

23.png

 

 

 

参考文档

http://blog.csdn.net/sinat_18497785/article/details/52259757

https://www.cnblogs.com/hequn/articles/3490780.html

转:https://blog.51cto.com/hsbxxl/2062477

这篇关于部署Ganglia监控HadoopHbase的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/880601

相关文章

mysql_mcp_server部署及应用实践案例

《mysql_mcp_server部署及应用实践案例》文章介绍了在CentOS7.5环境下部署MySQL_mcp_server的步骤,包括服务安装、配置和启动,还提供了一个基于Dify工作流的应用案例... 目录mysql_mcp_server部署及应用案例1. 服务安装1.1. 下载源码1.2. 创建独立

Nginx服务器部署详细代码实例

《Nginx服务器部署详细代码实例》Nginx是一个高性能的HTTP和反向代理web服务器,同时也提供了IMAP/POP3/SMTP服务,:本文主要介绍Nginx服务器部署的相关资料,文中通过代码... 目录Nginx 服务器SSL/TLS 配置动态脚本反向代理总结Nginx 服务器Nginx是一个‌高性

使用Python实现局域网远程监控电脑屏幕的方法

《使用Python实现局域网远程监控电脑屏幕的方法》文章介绍了两种使用Python在局域网内实现远程监控电脑屏幕的方法,方法一使用mss和socket,方法二使用PyAutoGUI和Flask,每种方... 目录方法一:使用mss和socket实现屏幕共享服务端(被监控端)客户端(监控端)方法二:使用PyA

Prometheus+cpolar如何在手机上也能监控服务器状态?

《Prometheus+cpolar如何在手机上也能监控服务器状态?》本文强调了通过Cpolar这一内网穿透工具,轻松突破Prometheus仅限于局域网访问的限制,实现外网随时随地访问监控数据,教你... 目录前言1.安装prometheus2.安装cpolar实现随时随地开发3.配置公网地址4.保留固定

JavaWeb项目创建、部署、连接数据库保姆级教程(tomcat)

《JavaWeb项目创建、部署、连接数据库保姆级教程(tomcat)》:本文主要介绍如何在IntelliJIDEA2020.1中创建和部署一个JavaWeb项目,包括创建项目、配置Tomcat服务... 目录简介:一、创建项目二、tomcat部署1、将tomcat解压在一个自己找得到路径2、在idea中添加

Python + Streamlit项目部署方案超详细教程(非Docker版)

《Python+Streamlit项目部署方案超详细教程(非Docker版)》Streamlit是一款强大的Python框架,专为机器学习及数据可视化打造,:本文主要介绍Python+St... 目录一、针对 Alibaba Cloud linux/Centos 系统的完整部署方案1. 服务器基础配置(阿里

MongoDB搭建过程及单机版部署方法

《MongoDB搭建过程及单机版部署方法》MongoDB是一个灵活、高性能的NoSQL数据库,特别适合快速开发和大规模分布式系统,本文给大家介绍MongoDB搭建过程及单机版部署方法,感兴趣的朋友跟随... 目录前言1️⃣ 核心特点1、文档存储2、无模式(Schema-less)3、高性能4、水平扩展(Sh

Docker + Redis 部署集群的实现步骤

《Docker+Redis部署集群的实现步骤》本文详细介绍了在三台服务器上部署高可用Redis集群的完整流程,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋... 目录一、环境准备1. 服务器规划(3 台服务器)2. 防火墙配置(三台服务器均执行)3. 安装 docke

Nginx分布式部署流程分析

《Nginx分布式部署流程分析》文章介绍Nginx在分布式部署中的反向代理和负载均衡作用,用于分发请求、减轻服务器压力及解决session共享问题,涵盖配置方法、策略及Java项目应用,并提及分布式事... 目录分布式部署NginxJava中的代理代理分为正向代理和反向代理正向代理反向代理Nginx应用场景

linux部署NFS和autofs自动挂载实现过程

《linux部署NFS和autofs自动挂载实现过程》文章介绍了NFS(网络文件系统)和Autofs的原理与配置,NFS通过RPC实现跨系统文件共享,需配置/etc/exports和nfs.conf,... 目录(一)NFS1. 什么是NFS2.NFS守护进程3.RPC服务4. 原理5. 部署5.1安装NF