MongoDB高可用集群+MMS集群监控搭建

2023-12-16 02:58

本文主要是介绍MongoDB高可用集群+MMS集群监控搭建,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录:

一、 集群的三个组件:

二、 集群架构图:

三、 集群的IP及端口规划:

四、 集群在LINUX上的目录规划:

五、 开始搭建集群:

六、 集群监控(mongodb-mms)

备注:

mongodb学习资料 http://www.runoob.com/mongodb/mongodb-tutorial.html

———————————————————————————————————————————————————-

一、 集群的三个组件:

  1. mongos(query routers):查询路由,负责client的连接,并把任务分配给shards,然后收集结果。
  2. config server:配置服务器,保存了集群的元数据信息,查询路由通过配置服务器的配置信息决定把任务分配+到哪个shards上。
  3. shards server:分片,存储数据和执行计算。

二、 集群架构图:

这里写图片描述

三、 集群的IP及端口规划:

服务192.168.141.201192.168.141.202192.168.141.203
RouterMongos(17017)Mongos(17017)
ConfigConfig server1(27017)Config server2(27017)Config server3(27017)
Shard1-主(37017)Shard2-主(47017)Shard3-主(57017)
ShardShard2-从(47017)Shard1-从(37017)Shard1-从(37017)
Shard3-从(57017)Shard3-从(57017)Shard2-从(47017)

四、 集群在LINUX上的目录规划:

这里写图片描述

五、 开始搭建集群:

1.下载软件:https://www.mongodb.com/download-center#community

这里用的版本是:mongodb-linux-x86_64-rhel62-3.2.10.tgz

2.创建目录:

mkdir -p /home/mongo/{config,router,shard}
mkdir -p /home/mongo/config/{data,logs}
mkdir -p /home/mongo/router/logs
mkdir -p /home/mongo/shard/{data,logs}
mkdir -p /home/mongo/shard/data/{shard1,shard2,shard3}

3.解压和复制:

解压文件,并将文件夹下的内容,分别复制到config/router/shard三个目录下面。

4.配置config server

1) 新建config实例启动所需的配置文件,并启动实例。【每台服务器顺序执行以下操作】

[root@mini1 ~]# cd /home/mongo/config/
[root@mini1 config]# vi mongo.config
dbpath=/home/mongo/config/data
logpath=/ home /mongo/config/logs/mongo.log
port=27017
logappend=true
fork=true
quiet=true
journal=true
configsvr=true
replSet=configRS/192.168.141.201:27017,192.168.141.202:27017,192.168.141.203:27017
##启动实例(服务端)
[root@mini1 bin]# cd /home /mongo/config/bin/
[root@mini1 bin]# ./mongod /home/mongo/config/mongo.config

2) 初始化config server。任意进入一台服务器,配置config server的副本集

[root@mini1 bin]# ./mongo –port 27017
rs.initiate({_id:”configRS”,configsvr:true,members:[{_id:1,host:”192.168.141.201:27017”,priority:2},{_id:2,host:”192.168.141.202:27017”},{_id:3,host:”192.168.141.203:27017”}]})
{ “ok” : 1 }
注:可用rs.status()查看副本集的状态

5.启动mongos server(路由服务)

[root@mini1 /]# cd /home/mongo/router/bin/
[root@mini1 bin]# ./mongos –configdb configRS/192.168.141.201:27017,192.168.141.202:27017,192.168.141.203:27017 –port 17017 –fork –logpath=/home/mongo/router/logs/mongos.log

6.配置shard server(分片服务)

1) 新建config实例启动所需的配置文件,并启动实例。每台服务器顺序执行以下操作

[root@mini1 ~]# cd /home/mongo/shard/
[root@mini1 shard]# vi shard1.config
dbpath=/ home /mongo/shard/data/shard1
logpath=/ home /mongo/shard/logs/shard1.log
port=37017
logappend=true
fork=true
quiet=true
journal=true
shardsvr=true
replSet= shard1RS/192.168.141.201:37017,192.168.141.202:37017,192.168.141.203:37017

[root@mini1 shard]# vi shard2.config
dbpath=/home/mongo/ shard /data/ shard2
logpath=/ home /mongo/ shard /logs/ shard2.log
port=47017
logappend=true
fork=true
quiet=true
journal=true
shardsvr =true
replSet= shard2RS/192.168.141.201:47017,192.168.141.202:47017,192.168.141.203:47017

[root@mini1 shard]# vi shard3.config
dbpath=/home/mongo/ shard /data/ shard3
logpath=/ home /mongo/ shard /logs/ shard3.log
port=57017
logappend=true
fork=true
quiet=true
journal=true
shardsvr =true
replSet= shard3RS/192.168.141.201:57017,192.168.141.202:57017,192.168.141.203:57017

##启动实例(服务端)第一台服务器先启动shard1,然后去第二台服务器启动shard2,再去第三台服务器启动shard3。 启动完后,每个服务器再去启动剩下的2个实例。
[root@mini1 /]# cd /home/mongo/shard/bin/
[root@mini1 bin]# ./mongod -f /home/mongo/shard/shard1.config
[root@mini1 bin]# ./mongod -f /home/mongo/shard/shard2.config
[root@mini1 bin]# ./mongod -f /home/mongo/shard/shard3.config

2) 初始化shard server。任意进入一台服务器,配置每个shard的副本集
[root@mini1 bin]# ./mongo 192.168.141.201:37017
>rs.initiate({_id:"shard1RS",members:[{_id:1,host:"192.168.141.201:37017",priority:2},{_id:2,host:"192.168.141.202:37017"},{_id:3,host:"192.168.141.203:37017"}]})
{ "ok" : 1 }[root@mini1 bin]# ./mongo 192.168.141.201:47017
>rs.initiate({_id:"shard2RS",members:[{_id:1,host:"192.168.141.202:47017",priority:2},{_id:2,host:"192.168.141.201:47017"},{_id:3,host:"192.168.141.203:47017"}]})
{ "ok" : 1 }[root@mini1 bin]# ./mongo 192.168.141.201:57017
>rs.initiate({_id:"shard3RS",members:[{_id:1,host:"192.168.141.203:57017",priority:2},{_id:2,host:"192.168.141.201:57017"},{_id:3,host:"192.168.141.202:57017"}]})
{ "ok" : 1 }

7.配置分片

[root@mini1 /]# cd /home/mongo/router/bin/
[root@mini1 bin]# ./mongo --port 17017
>use admin 
>db.runCommand({"addShard":"shard1RS/192.168.141.201:37017" ,"maxsize":1024}) 
>db.runCommand({"addShard":"shard2RS/192.168.141.202:47017" ,"maxsize":1024}) 
>db.runCommand({"addShard":"shard3RS/192.168.141.203:57017" ,"maxsize":1024})
注:可用命令db.runCommand({listshards:1}) 查看分片的状态信息

8.使用

在使用的时候,需要对数据库开启分片功能,并对数据库下的表的字段指定分片算法。
>use admin 
--对库hdctest开启分片 
>db.runCommand({"enablesharding":"hdctest"}) 
--对库hdctest下的表person按字段ID配置hash分库算法 
>db.runCommand({"shardcollection":"hdctest.person","key":{_id:'hashed'}}) 

9.其他注意

在登陆从库查看数据信息的时候,会报一个错误,如下图:
这里写图片描述
解决办法:执行命令db.getMongo().setSlaveOk()后,即可。

六、集群监控(mongodb-mms)

MongoDB的管理服务(MMS)是用于监控和备份MongoDB的基础设施服务,提供实时的报告,可视化,警报,硬件指标,并以直观的Web仪表盘展现数据。只需要安装上一个轻量级的监控代理,来收集mongodb运行信息并传回给MMS。MMS用户界面允许用户查看可视化的数据和设置警报。其中监控的服务是免费的,备份的服务是需要收费的。

1.分配一台符合MMS硬件要求的服务器.

MMS支持以下64位Linux发行版本:CentOS 5 or later,Red Hat Enterprise Linux 5, or later,SUSE 11 or Later,Amazon Linux AMI (latest version only,)Ubuntu 12.04 or later.

2.安装一个单独的mongodb复本集作为MMS应用数据库。(此步骤略)

后端mongodb数据库是单独的:MongoDB2.4.9或更高版本;后端mongodb数据库是复本集和分片集群必须运行MongoDB2.4.3或更高版本,官方建议是使用复制集。

3.安装SMTP邮件服务器

MMS依赖SMTP服务,是以电子邮件作为用户的,需要根据MMS服务器回复的邮件来进行用户注册和密码设置的,报警信息也是通过邮件来发送的。可以不用配置SMTP服务器,用第三方的即可。

4. 安装MMS应用程序包

https://www.mongodb.com/download-center#ops-manager
这里写图片描述

5. 配置MMS服务的URL、电子邮件、mongo URI连接串

修改/mms/conf/conf-mms.properties文件,以下参数必须设置:
## MMS的监控服务,完整的URL
mms.centralUrl=http://mini1:8080
## MMS备份服务的用户名和端口
mms.backupCentralUrl=http://mini1:8081
##发送一般的电子邮件
mms.fromEmailAddr=
## 发送回复到一般的电子邮件
mms.replyToEmailAddr=
## 从MMS管理员发送消息
mms.adminFromEmailAddr=
## 发送信息或回复到MMS管理员
mms.adminEmailAddr=
## 发送退回邮件
mms.bounceEmailAddr=
## MMS连接mongodb服务器的连接串,即MMS应用程序数据库
mongo.mongoUri
## 如果mongo.mongoUri使用的是复制集,需要指定复制集的名称
mongo.replicaSet

6.启动MMS服务

启动mongodb-mms服务:mongodb-mms start
这里写图片描述
至此,mms 的监控功能就安装好了。

7.访问http://mini1:8080来进行管理。

这里写图片描述

8.把已有的集群部署到MMS上。

这里写图片描述

9.部署完成后,即可看到整个集群的运行状况。

这里写图片描述

       如果您喜欢我写的博文,读后觉得收获很大,不妨小额赞助我一下,让我有动力继续写出高质量的博文,感谢您的赞赏!!!

这篇关于MongoDB高可用集群+MMS集群监控搭建的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/498852

相关文章

Python极速搭建局域网文件共享服务器完整指南

《Python极速搭建局域网文件共享服务器完整指南》在办公室或家庭局域网中快速共享文件时,许多人会选择第三方工具或云存储服务,但这些方案往往存在隐私泄露风险或需要复杂配置,下面我们就来看看如何使用Py... 目录一、android基础版:HTTP文件共享的魔法命令1. 一行代码启动HTTP服务器2. 关键参

SpringBoot监控API请求耗时的6中解决解决方案

《SpringBoot监控API请求耗时的6中解决解决方案》本文介绍SpringBoot中记录API请求耗时的6种方案,包括手动埋点、AOP切面、拦截器、Filter、事件监听、Micrometer+... 目录1. 简介2.实战案例2.1 手动记录2.2 自定义AOP记录2.3 拦截器技术2.4 使用Fi

Spring Boot Actuator应用监控与管理的详细步骤

《SpringBootActuator应用监控与管理的详细步骤》SpringBootActuator是SpringBoot的监控工具,提供健康检查、性能指标、日志管理等核心功能,支持自定义和扩展端... 目录一、 Spring Boot Actuator 概述二、 集成 Spring Boot Actuat

一文解密Python进行监控进程的黑科技

《一文解密Python进行监控进程的黑科技》在计算机系统管理和应用性能优化中,监控进程的CPU、内存和IO使用率是非常重要的任务,下面我们就来讲讲如何Python写一个简单使用的监控进程的工具吧... 目录准备工作监控CPU使用率监控内存使用率监控IO使用率小工具代码整合在计算机系统管理和应用性能优化中,监

Zabbix在MySQL性能监控方面的运用及最佳实践记录

《Zabbix在MySQL性能监控方面的运用及最佳实践记录》Zabbix通过自定义脚本和内置模板监控MySQL核心指标(连接、查询、资源、复制),支持自动发现多实例及告警通知,结合可视化仪表盘,可有效... 目录一、核心监控指标及配置1. 关键监控指标示例2. 配置方法二、自动发现与多实例管理1. 实践步骤

prometheus如何使用pushgateway监控网路丢包

《prometheus如何使用pushgateway监控网路丢包》:本文主要介绍prometheus如何使用pushgateway监控网路丢包问题,具有很好的参考价值,希望对大家有所帮助,如有错误... 目录监控网路丢包脚本数据图表总结监控网路丢包脚本[root@gtcq-gt-monitor-prome

Spring Boot集成Druid实现数据源管理与监控的详细步骤

《SpringBoot集成Druid实现数据源管理与监控的详细步骤》本文介绍如何在SpringBoot项目中集成Druid数据库连接池,包括环境搭建、Maven依赖配置、SpringBoot配置文件... 目录1. 引言1.1 环境准备1.2 Druid介绍2. 配置Druid连接池3. 查看Druid监控

Jenkins分布式集群配置方式

《Jenkins分布式集群配置方式》:本文主要介绍Jenkins分布式集群配置方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1.安装jenkins2.配置集群总结Jenkins是一个开源项目,它提供了一个容易使用的持续集成系统,并且提供了大量的plugin满

如何在Ubuntu 24.04上部署Zabbix 7.0对服务器进行监控

《如何在Ubuntu24.04上部署Zabbix7.0对服务器进行监控》在Ubuntu24.04上部署Zabbix7.0监控阿里云ECS服务器,需配置MariaDB数据库、开放10050/1005... 目录软硬件信息部署步骤步骤 1:安装并配置mariadb步骤 2:安装Zabbix 7.0 Server

Redis分片集群、数据读写规则问题小结

《Redis分片集群、数据读写规则问题小结》本文介绍了Redis分片集群的原理,通过数据分片和哈希槽机制解决单机内存限制与写瓶颈问题,实现分布式存储和高并发处理,但存在通信开销大、维护复杂及对事务支持... 目录一、分片集群解android决的问题二、分片集群图解 分片集群特征如何解决的上述问题?(与哨兵模