hadoop 安装配置启动

2024-09-05 23:58
文章标签 配置 安装 启动 hadoop

本文主要是介绍hadoop 安装配置启动,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. Ubuntu12.04基本设置

   
   1) 设置与Windows共享(通过hgfs)
   2) 设置root密码
      sudo passwd root
   3) 设置root登录
      vim /etc/lightdm/lightdm.conf
      在最后添加一行:greeter-show-manual-login=true
   3) #adduser test  
      #passwd test
      #mkdir -p /home/test
   4) 查看我是谁
      whoami

2. 安装组件

   $ sudo apt-get install ssh
   $ sudo apt-get install rsync

3. 下载解压JDK (1.7)至/opt目录下

4. 下载解压Hadoop (2.6.4)/opt目录下

5. 增加JDK和Hadoop Path到/root/.bashrc和当用户的~/.bashrc中

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. export JAVA_HOME=/opt/jdk1.7.0_79  
  2. export HADOOP_HOME=/opt/hadoop-2.6.4  
  3. export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin  
  4.   
  5. # improve Could not resolve hostname library: Name or service not known  
  6. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native  
  7. export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"  

   

      如果把HADOOP_OPTS配置为:

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"  

      则会出现如下错误:       

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable  

6. hadoop_env.sh (JAVA_HOME, HADOOP_PREFIX)

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. # set to the root of your Java installation  
  2. export JAVA_HOME=/opt/jdk1.7.0_79  
  3.   
  4. # Assuming your installation directory is /opt/hadoop-2.6.4  
  5. export HADOOP_PREFIX=/opt/hadoop-2.6.4  

   注:以上安装都以root用户执行

7. 实例测试

7.1 单机模式

 (不需要做任何配置,但不启动任何dfs和mapreduce daemon进程)
  计算在这些.xml文件中总共有多少个configuration
  ~$ mkdir input
  ~$ cp /opt/hadoop-2.6.4/etc/hadoop/*.xml input
  ~$ hadoop jar /opt/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'configuration'

  ~$ cat output/*


  查看debug信息(即代码中LOG.debug打印的信息):

   test@ubuntu:~/hadoop$ export HADOOP_ROOT_LOGGER=DEBUG,console
   test@ubuntu:~/hadoop$ hadoop fs -text /test/data/origz/access.log.gz


7.2 伪分布式模式

7.2.1 配置环境

1)etc/hadoop/core-site.xml:
[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.       
  3.     <!-- set the host of namenode residing -->     
  4.     <property>  
  5.         <name>fs.defaultFS</name>  
  6.         <value>hdfs://localhost:9000</value>  
  7.     </property>  
  8.       
  9.       
  10.     <!-- set the position of dfs directory  -->  
  11.     <property>  
  12.         <name>hadoop.tmp.dir</name>  
  13.         <value>/home/test/hadoop/tmp</value>   
  14.     </property>  
  15. </configuration>  

2)etc/hadoop/hdfs-site.xml:
[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.     <property>  
  3.         <name>dfs.replication</name>  
  4.         <value>1</value>  
  5.     </property>  
  6. </configuration>  

3)ssh免密码登录
   ~$ssh-keygen (一直默认回车)
   ~$cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
   ~$ssh localhost (应该无密码)


7.2.2 在本地运行MapReduce Job

1)格式化文件系统
   $ hdfs namenode -format
  
   生成的dfs文件夹位于:/home/test/hadoop/tmp 


2)启动NameNode daemon和DataNode daemon
   $ start-dfs.sh


   hadoop daemon log输出目录为$HADOOP_LOG_DIR, 默认为$HADOOP_HOME/logs
   给test用户授与/opt/hadoop-2.6.4权限
   sudo chown -hR test /opt/hadoop-2.6.4
   
   可通过jps查看到以下JVM进程:
   11340 SecondaryNameNode
   9927 NameNode
   10142 DataNode


3) 通过Web界面来查看NameNode运行状况,默认为:
   http://localhost:50070
   http://192.168.4.91:50070


4)创建执行MapReduce Job需要的HDFS目录
   $hdfs dfs -mkdir /user
   $hdfs dfs -mkdir /user/<username>


   error:mkdir: Cannot create directory /user. Name node is in safe mode.
   solution:hdfs  dfsadmin -safemode leave


5)把输入文件copy到分布式文件系统
   $hdfs dfs -put /opt/hadoop-2.6.4/etc/hadoop input


6)运行例子程序
   $hadoop jar /opt/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'dfs[a-z.]+' 


7)检查输出文件
   把输出文件从分布式文件系统copy到本地文件系统,然后查看
   $hdfs dfs -get output output
   $cat output/*
   或者
   $hdfs dfs -cat output/*


8) 停止NameNode daemon和DataNode daemon
   $stop-dfs.sh

7.2.3 在YARN上运行MapReduce Job

1) 配置环境
   在【7.2.1 配置环境】的基础上增加如下配置
(1)etc/hadoop/mapred-site.xml:

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.     <property>  
  3.         <name>mapreduce.framework.name</name>  
  4.         <value>yarn</value>  
  5.     </property>  
  6. </configuration>  


(2)etc/hadoop/yarn-site.xml:
[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.     <property>  
  3.         <name>yarn.nodemanager.aux-services</name>  
  4.         <value>mapreduce_shuffle</value>  
  5.     </property>  
  6. </configuration>  


2)格式化文件系统
   $ hdfs namenode -format
  
   生成的dfs文件夹位于:/home/test/hadoop/tmp 


3)启动NameNode daemon和DataNode daemon
   $ start-dfs.sh


   hadoop daemon log输出目录为$HADOOP_LOG_DIR, 默认为$HADOOP_HOME/logs
   给test用户授与/opt/hadoop-2.6.4权限
   sudo chown -hR test /opt/hadoop-2.6.4
   
   可通过jps查看到以下JVM进程:
   11340 SecondaryNameNode
   9927 NameNode
   10142 DataNode


4) 通过Web界面来查看NameNode运行状况,默认为:
   http://localhost:50070
   http://192.168.4.91:50070


5)创建执行MapReduce Job需要的HDFS目录
   $hdfs dfs -mkdir /user
   $hdfs dfs -mkdir /user/<username>


6)启动ResourceManager daemon和NodeManager daemon
   $start-yarn.sh


7) 通过Web界面来查看ResourceManager运行状况,默认为:
   http://localhost:8088
   http://192.168.4.91:8088


8)把输入文件copy到分布式文件系统
   $hdfs dfs -put /opt/hadoop-2.6.4/etc/hadoop input


9)运行例子程序
   $hadoop jar /opt/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'dfs[a-z.]+' 


10)检查输出文件
   把输出文件从分布式文件系统copy到本地文件系统,然后查看
   $hdfs dfs -get output output
   $cat output/*
   或者
   $hdfs dfs -cat output/*

11)$stop-yarn.sh

12)$stop-dfs.sh


这篇关于hadoop 安装配置启动的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1140422

相关文章

Redis Cluster模式配置

《RedisCluster模式配置》:本文主要介绍RedisCluster模式配置,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录分片 一、分片的本质与核心价值二、分片实现方案对比 ‌三、分片算法详解1. ‌范围分片(顺序分片)‌2. ‌哈希分片3. ‌虚

SpringBoot项目配置logback-spring.xml屏蔽特定路径的日志

《SpringBoot项目配置logback-spring.xml屏蔽特定路径的日志》在SpringBoot项目中,使用logback-spring.xml配置屏蔽特定路径的日志有两种常用方式,文中的... 目录方案一:基础配置(直接关闭目标路径日志)方案二:结合 Spring Profile 按环境屏蔽关

Maven 配置中的 <mirror>绕过 HTTP 阻断机制的方法

《Maven配置中的<mirror>绕过HTTP阻断机制的方法》:本文主要介绍Maven配置中的<mirror>绕过HTTP阻断机制的方法,本文给大家分享问题原因及解决方案,感兴趣的朋友一... 目录一、问题场景:升级 Maven 后构建失败二、解决方案:通过 <mirror> 配置覆盖默认行为1. 配置示

Nexus安装和启动的实现教程

《Nexus安装和启动的实现教程》:本文主要介绍Nexus安装和启动的实现教程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、Nexus下载二、Nexus安装和启动三、关闭Nexus总结一、Nexus下载官方下载链接:DownloadWindows系统根

Springboot3+将ID转为JSON字符串的详细配置方案

《Springboot3+将ID转为JSON字符串的详细配置方案》:本文主要介绍纯后端实现Long/BigIntegerID转为JSON字符串的详细配置方案,s基于SpringBoot3+和Spr... 目录1. 添加依赖2. 全局 Jackson 配置3. 精准控制(可选)4. OpenAPI (Spri

Java中实现线程的创建和启动的方法

《Java中实现线程的创建和启动的方法》在Java中,实现线程的创建和启动是两个不同但紧密相关的概念,理解为什么要启动线程(调用start()方法)而非直接调用run()方法,是掌握多线程编程的关键,... 目录1. 线程的生命周期2. start() vs run() 的本质区别3. 为什么必须通过 st

Java SWT库详解与安装指南(最新推荐)

《JavaSWT库详解与安装指南(最新推荐)》:本文主要介绍JavaSWT库详解与安装指南,在本章中,我们介绍了如何下载、安装SWTJAR包,并详述了在Eclipse以及命令行环境中配置Java... 目录1. Java SWT类库概述2. SWT与AWT和Swing的区别2.1 历史背景与设计理念2.1.

maven私服配置全过程

《maven私服配置全过程》:本文主要介绍maven私服配置全过程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录使用Nexus作为 公司maven私服maven 私服setttings配置maven项目 pom配置测试效果总结使用Nexus作为 公司maven私

Oracle修改端口号之后无法启动的解决方案

《Oracle修改端口号之后无法启动的解决方案》Oracle数据库更改端口后出现监听器无法启动的问题确实较为常见,但并非必然发生,这一问题通常源于​​配置错误或环境冲突​​,而非端口修改本身,以下是系... 目录一、问题根源分析​​​二、保姆级解决方案​​​​步骤1:修正监听器配置文件 (listener.

MySQL版本问题导致项目无法启动问题的解决方案

《MySQL版本问题导致项目无法启动问题的解决方案》本文记录了一次因MySQL版本不一致导致项目启动失败的经历,详细解析了连接错误的原因,并提供了两种解决方案:调整连接字符串禁用SSL或统一MySQL... 目录本地项目启动报错报错原因:解决方案第一个:第二种:容器启动mysql的坑两种修改时区的方法:本地