CentOS7.0+Hadoop2.7.2+Hbase1.2.1搭建教程

2023-10-29 11:48

本文主要是介绍CentOS7.0+Hadoop2.7.2+Hbase1.2.1搭建教程,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1、软件版本

  CentOS-7.0 -1406-x86_64-DVD.iso

  jdk-7u80-linux-x64.tar.gz

  hadoop-2.7.2.tar.gz

  hbase-1.2.1-bin.tar.gz


2、集群配置

主机: Master.Hadoop      IP地址: 192.168.1.100
  主机: Slave1.Hadoop      IP地址: 192.168.1.101
  主机: Slave2.Hadoop      IP地址: 192.168.1.102

  用户设置:系统用了GUI,新版非得建立一个账户。例如随便建一个jfz,密码1,但操作时使用root(密码root)直接进行,装好后重启,以后用SSH进root。


3、配置本地hosts

  输入指令:

nano /etc/hosts
  将以下数据复制进入各个主机中:

192.168.1.100  Master.Hadoop
192.168.1.101  Slave1.Hadoop
192.168.1.102  Slave2.Hadoop
  使用以下指令在Master主机中进行测试,可使用类似指令在Slave主机测试:

ping Master.Hadoop
ping Slave1.Hadoop
ping Slave2.Hadoop

4、关闭防火墙

  三台机器均关闭防火墙。

  停止firewall:

systemctl stop firewalld.service
  禁止firewall开机启动:

systemctl disable firewalld.service

5、Java安装

(1)卸载自带的OpenJDK v1.7:

java -version
yum remove java-1.7.0-openjdk
  重启。

(2) JDK安装:

  在/usr下创建java文件夹,将jdk-7u80-linux-x64.tar.gz文件放到这个文件夹中。

  使用以下指令进行解压

tar zxvf jdk-7u80-linux-x64.tar.gz
  解压后可以删除掉gz文件

rm jdk-7u80-linux-x64.tar.gz
  配置JDK环境变量:

nano /etc/profile
  添加Java环境变量,将以下数据复制到文件底部:

export JAVA_HOME=/usr/java/jdk1.7.0_80
export JRE_HOME=/usr/java/jdk1.7.0_80/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
  重载使配置生效:

source /etc/profile
  验证安装成功:

java -version

  如果出现对应版本信息,则配置成功:java version "1.7.0_80"


6、SSH免密码登录

  因为Hadoop需要通过SSH登录到各个节点进行操作,本集群用的是root用户,每台服务器都生成公钥,再合并到authorized_keys。

(1)修改sshd_config配置

  CentOS默认没有启动SSH无密登录,去掉/etc/ssh/sshd_config其中2行的注释,每台服务器都要设置。

nano /etc/ssh/sshd_config
RSAAuthentication yes
PubkeyAuthentication yes

(2)生成key

  输入命令:

ssh-keygen -t rsa
  生成key,都不输入密码,一直回车,/root就会生成.ssh文件夹,每台服务器都要设置。

(3)合并key

  合并公钥到authorized_keys文件,在Master服务器,进入/root/.ssh目录,通过SSH命令合并。

cat id_rsa.pub>> authorized_keys
ssh root@192.168.1.101 cat ~/.ssh/id_rsa.pub>> authorized_keys
ssh root@192.168.1.102 cat ~/.ssh/id_rsa.pub>> authorized_keys

(4)拷贝key

  把Master服务器的authorized_keys、known_hosts复制到Slave服务器的/root/.ssh目录。

scp authorized_keys known_hosts root@192.168.1.101:/root/.ssh
scp authorized_keys known_hosts root@192.168.1.102:/root/.ssh

(5)检证免密登陆

ssh root@192.168.1.101
ssh root@192.168.1.102

  以后就不需要输入密码了。


7、Hadoop安装流程

(1)下载hadoop安装包

  将下载“hadoop-2.7.2.tar.gz”文件上传至到/home/hadoop目录下。

  注意:一定要在Linux下解压,否则执行权限问题很麻烦。

(2)解压压缩包

tar -xzvf hadoop-2.7.2.tar.gz

(3)在/home/hadoop目录下创建目录

  创建数据存放的文件夹,tmp、hdfs、hdfs/data、hdfs/name

mkdir -p tmp hdfs/name hdfs/data

(4)配置core-site.xml

  指令:

nano /home/hadoop/hadoop-2.7.2/etc/hadoop/core-site.xml
  内容:
<configuration><property><name>fs.defaultFS</name><value>hdfs://192.168.1.100:9000</value></property><property><name>hadoop.tmp.dir</name><value>file:/home/hadoop/tmp</value></property><property><name>io.file.buffer.size</name><value>131702</value></property>
</configuration>

(5)配置hdfs-site.xml

  指令:

nano /home/hadoop/hadoop-2.7.2/etc/hadoop/hdfs-site.xml
  内容:
<configuration><property><name>dfs.namenode.name.dir</name><value>file:/home/hadoop/hdfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/home/hadoop/hdfs/data</value></property><property><name>dfs.replication</name><value>2</value></property><property><name>dfs.namenode.secondary.http-address</name><value>192.168.1.100:9001</value></property><property><name>dfs.webhdfs.enabled</name><value>true</value></property>
</configuration>

(6)配置mapred-site.xml

  指令:

nano /home/hadoop/hadoop-2.7.2/etc/hadoop/mapred-site.xml
  内容:
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>192.168.1.100:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>192.168.1.100:19888</value></property>
</configuration>

(7)配置yarn-site.xml

  指令:

nano /home/hadoop/hadoop-2.7.2/etc/hadoop/yarn-site.xml
  内容:
<configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value></property><property><name>yarn.resourcemanager.address</name><value>192.168.1.100:8032</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>192.168.1.100:8030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>192.168.1.100:8031</value></property><property><name>yarn.resourcemanager.admin.address</name><value>192.168.1.100:8033</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>192.168.1.100:8088</value></property><property><name>yarn.nodemanager.resource.memory-mb</name><value>2048</value></property>
</configuration>
   注意:yarn.nodemanager.resource.memory-mb值要大于1024,否则影响进程!

(8)配置hadoop-env.sh、yarn-env.sh的JAVA_HOME

  配置/home/hadoop/hadoop-2.7.2/etc/hadoop目录下:

  hadoop-env.sh、yarn-env.sh的JAVA_HOME,不设置的话,启动不了。

export JAVA_HOME=/usr/java/jdk1.7.0_80

(9)配置slaves

nano /home/hadoop/hadoop-2.7.2/etc/hadoop/slaves
  删除默认的localhost,增加2个从节点:
192.168.1.101
192.168.1.102

(10)传送Hadoop至其它节点

  将配置好的Hadoop复制到各个节点对应位置上,通过scp传送:

scp -r /home/hadoop 192.168.1.101:/home/
scp -r /home/hadoop 192.168.1.102:/home/

(11)启动Hadoop

  在Master服务器启动hadoop,从节点会自动启动。

  进入/home/hadoop/hadoop-2.7.2目录,初始化,输入命令:

bin/hdfs namenode -format
  全部启动:
sbin/start-all.sh
  也可以分开启动sbin/start-dfs.sh、sbin/start-yarn.sh。

  Hadoop环境变量配置,需要在/etc/profile 中添加HADOOP_HOME内容,之前已经配置过,所以这一步已经节省下来,那么可重启 source /etc/profile。

(12)验证Hadoop

  jps运行成功结果:

8、Hbase安装流程

(1)复制安装包至Master节点/home/hbase目录下

  通过SFTP或是直接拷贝至Master节点,软件推荐在Linux下解压!

(2)解压压缩包

tar zxvf hbase-1.2.1-bin.tar.gz

(3)添加到环境变量

  将hbase添加到环境变量/etc/profile中,配环境变量方便使用指令:

nano /etc/profile
内容:
export HBASE_HOME=/home/hbase/hbase-1.2.1
export PATH=$HBASE_HOME/bin:$PATH
export HBASE_MANAGES_ZK=true 
export HBASE_CLASSPATH=/home/hbase/hbase-1.2.1/conf

(4)修改配置文件hbase-env.sh

nano /home/hbase/hbase-1.2.1/conf/hbase-env.sh
  内容:
export JAVA_HOME=/usr/java/jdk1.7.0_80

(5)修改配置文件hbase-site.xml

<configuration><property><name>hbase.rootdir</name><value>hdfs://192.168.1.100:9000/hbase</value></property><property><name>hbase.cluster.distributed</name><value>true</value></property><property><name>hbase.zookeeper.quorum</name><value>Master.Hadoop,Slave1.Hadoop,Slave2.Hadoop</value></property><property><name>hbase.temp.dir</name><value>/home/hbase/hbase-1.2.1/tmp</value></property><property><name>hbase.zookeeper.property.dataDir</name><value>/home/hbase/hbase-1.2.1/tmp/zookeeper</value></property><property><name>hbase.master.info.port</name><value>60010</value></property>
</configuration>

(6)修改配置文件regionservers:

nano regionservers
  将文件内容设置为:

Master.Hadoop
Slave1.Hadoop
Slave2.Hadoop

(7)Hbase复制到从节点

  差不多要成功了,别忘了最后一步!

scp -r /home/hbase/hbase-1.2.1 root@192.168.1.101:/home/hbase/
scp -r /home/hbase/hbase-1.2.1 root@192.168.1.102:/home/hbase/

(8)验证Hbase

  1、用jps命令看进程对不对。


  2、测试Web访问

    http://Master.Hadoop:8088/

    http://Master.Hadoop:50070/

    http://Master.Hadoop:60010/

这篇关于CentOS7.0+Hadoop2.7.2+Hbase1.2.1搭建教程的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/300438

相关文章

springboot使用Scheduling实现动态增删启停定时任务教程

《springboot使用Scheduling实现动态增删启停定时任务教程》:本文主要介绍springboot使用Scheduling实现动态增删启停定时任务教程,具有很好的参考价值,希望对大家有... 目录1、配置定时任务需要的线程池2、创建ScheduledFuture的包装类3、注册定时任务,增加、删

如何为Yarn配置国内源的详细教程

《如何为Yarn配置国内源的详细教程》在使用Yarn进行项目开发时,由于网络原因,直接使用官方源可能会导致下载速度慢或连接失败,配置国内源可以显著提高包的下载速度和稳定性,本文将详细介绍如何为Yarn... 目录一、查询当前使用的镜像源二、设置国内源1. 设置为淘宝镜像源2. 设置为其他国内源三、还原为官方

Maven的使用和配置国内源的保姆级教程

《Maven的使用和配置国内源的保姆级教程》Maven是⼀个项目管理工具,基于POM(ProjectObjectModel,项目对象模型)的概念,Maven可以通过一小段描述信息来管理项目的构建,报告... 目录1. 什么是Maven?2.创建⼀个Maven项目3.Maven 核心功能4.使用Maven H

IDEA自动生成注释模板的配置教程

《IDEA自动生成注释模板的配置教程》本文介绍了如何在IntelliJIDEA中配置类和方法的注释模板,包括自动生成项目名称、包名、日期和时间等内容,以及如何定制参数和返回值的注释格式,需要的朋友可以... 目录项目场景配置方法类注释模板定义类开头的注释步骤类注释效果方法注释模板定义方法开头的注释步骤方法注

Python虚拟环境终极(含PyCharm的使用教程)

《Python虚拟环境终极(含PyCharm的使用教程)》:本文主要介绍Python虚拟环境终极(含PyCharm的使用教程),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,... 目录一、为什么需要虚拟环境?二、虚拟环境创建方式对比三、命令行创建虚拟环境(venv)3.1 基础命令3

使用Node.js制作图片上传服务的详细教程

《使用Node.js制作图片上传服务的详细教程》在现代Web应用开发中,图片上传是一项常见且重要的功能,借助Node.js强大的生态系统,我们可以轻松搭建高效的图片上传服务,本文将深入探讨如何使用No... 目录准备工作搭建 Express 服务器配置 multer 进行图片上传处理图片上传请求完整代码示例

利用Python快速搭建Markdown笔记发布系统

《利用Python快速搭建Markdown笔记发布系统》这篇文章主要为大家详细介绍了使用Python生态的成熟工具,在30分钟内搭建一个支持Markdown渲染、分类标签、全文搜索的私有化知识发布系统... 目录引言:为什么要自建知识博客一、技术选型:极简主义开发栈二、系统架构设计三、核心代码实现(分步解析

python连接本地SQL server详细图文教程

《python连接本地SQLserver详细图文教程》在数据分析领域,经常需要从数据库中获取数据进行分析和处理,下面:本文主要介绍python连接本地SQLserver的相关资料,文中通过代码... 目录一.设置本地账号1.新建用户2.开启双重验证3,开启TCP/IP本地服务二js.python连接实例1.

Python 安装和配置flask, flask_cors的图文教程

《Python安装和配置flask,flask_cors的图文教程》:本文主要介绍Python安装和配置flask,flask_cors的图文教程,本文通过图文并茂的形式给大家介绍的非常详细,... 目录一.python安装:二,配置环境变量,三:检查Python安装和环境变量,四:安装flask和flas

Spring Security基于数据库的ABAC属性权限模型实战开发教程

《SpringSecurity基于数据库的ABAC属性权限模型实战开发教程》:本文主要介绍SpringSecurity基于数据库的ABAC属性权限模型实战开发教程,本文给大家介绍的非常详细,对大... 目录1. 前言2. 权限决策依据RBACABAC综合对比3. 数据库表结构说明4. 实战开始5. MyBA