虚拟机ubuntu部署hadoop2.2.0伪分布(2)

2023-12-08 16:38

本文主要是介绍虚拟机ubuntu部署hadoop2.2.0伪分布(2),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

所用软件下载网址:链接:http://pan.baidu.com/s/1bn4IIQF密码:ramg

 

1、hadoop文件配置

hadoop-2.2.0安装完成后接下来我们可以进行伪分布配置(Hadoop可以在伪分布模式下运行单结点)。(可参考网址:http://www.linuxidc.com/Linux/2014-09/106148.htm)

接下来我们要配置的文件有四个,分别是/usr/mywind/hadoop/etc/hadoop目录下的yarn-site.xml、mapred-site.xml、hdfs-site.xml、core-site.xml(注意:这个版本下默认没有yarn-site.xml文件,但有个yarn-site.xml.properties文件,把后缀修改成前者即可),关于yarn新特性可以参考官网或者这个文章http://www.linuxidc.com/Linux/2013-09/90090.htm 。

首先是core-site.xml配置HDFS地址及临时目录(默认的临时目录在重启后会删除):

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.0.106:9000</value>
<description>same as fs.default.name</description>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/tom/tmp</value>
<description>A base for other temporary directories.</description>
</property>
</configuration>

然后是hdfs-site.xml配置集群数量及其他一些可选配置比如NameNode目录、DataNode目录等等:

<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/tom/name</value>
<description>same as dfs.name.dir</description>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/tom/data</value>
<description>same as dfs.data.dir</description>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>same as old frame,recommend set the value as the cluster DataNode host numbers!</description>
</property>
</configuration>


接着是mapred-site.xml配置启用yarn框架:

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>


最后是yarn-site.xml配置NodeManager:

<configuration>
<!-- Site specific YARN configuration properties --> 
<property> 
<name>yarn.nodemanager.aux-services</name> 
<value>mapreduce_shuffle</value> 
</property> 
</configuration>


注意,网上的旧版本教程可能会把value写成mapreduce.shuffle,这个要特别注意一下的,至此我们所有的文件配置都已经完成了

2、HDFS文件系统格式化和系统启动

下面进行HDFS文件系统进行格式化:

 $ hdfs namenode -format
 
然后启用NameNode及DataNode进程:

$ start-dfs.sh

$ start-yarn.sh

启动了两个进程之后用jps命令查看进程情况,出现5个进程说明启动成功(除jps外)

 

问题1、启动start-dfs.sh时出现如下问题:
Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
Starting namenodes on []
Error: Cannot find configuration directory: /etc/hadoop
Error: Cannot find configuration directory: /etc/hadoop
Starting secondary namenodes [0.0.0.0]
Error: Cannot find configuration directory: /etc/hadoop

解决方法1

(1)、调用stop-dfs.sh、stop-yarn.sh通知服务

(2)、在/etc/hosts中把

127.0.0.1       localhost
改为192.168.0.106      localhost

127.0.1.1       ubuntu
改为192.168.0.106      ubuntu

(3)把data文件夹中的文件删除:rm -r /home/tom/data/current

把tmp文件夹中的文件删除:rm -r /home/tom/tmp/dfs

进行HDFS文件系统进行格式化:$ hdfs namenode -format

(4)再次调用start-dfs.sh和start-yarn.sh,启动服务

解决方法2
在hdfs-site.xml中增加如下代码:(此9001端口设置后,fs.defaultFS中9000端口就无法启动,不建议用这种方式)

    <property>
<name>dfs.namenode.rpc-address</name>
<value>192.168.0.106:9001</value>
</property>
问题2、如果在jps中发现没有dataNode

(1)、调用stop-dfs.sh、stop-yarn.sh通知服务

(2)、在/etc/hosts中把

127.0.0.1       localhost
改为192.168.0.106      localhost

127.0.1.1       ubuntu
改为192.168.0.106      ubuntu

(3)把data文件夹中的文件删除:rm -r /home/tom/data/current

把tmp文件夹中的文件删除:rm -r /home/tom/tmp/dfs

进行HDFS文件系统进行格式化:$ hdfs namenode -format

(4)再次调用start-dfs.sh和start-yarn.sh,启动服务

3、进行hdfs文件测试

(1)、创建hdfs文件目录

$ hdfs dfs -mkdir /user
$ hdfs dfs -mkdir /user/tom 
注意,这个tom是我在Ubuntu上的用户名,最好保持与系统用户名一致,据说不一致会有许多权限等问题,我之前试过改成其他名字,报错,实在麻烦就改成跟系统用户名一致吧。

问题1、hdfs dfs -mkdir /user时出现如下错误:

mkdir: Call From ubuntu/10.31.3.108 to localhost:9000 failed on connection exception: 
java.net.ConnectException: Connection refused; 
For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused

解决方法:

由于9000端口没有启动造成的,把hdfs-site.xml中的 

    <property>
<name>dfs.namenode.rpc-address</name>
<value>192.168.0.106:9001</value>
</property>

这段代码去掉,在重新按照以下步骤启动

(1)、调用stop-dfs.sh、stop-yarn.sh通知服务

(2)、在/etc/hosts中把

127.0.0.1       localhost
改为192.168.0.106      localhost

127.0.1.1       ubuntu
改为192.168.0.106      ubuntu

(3)把data文件夹中的文件删除:rm -r /home/tom/data/current

把tmp文件夹中的文件删除:rm -r /home/tom/tmp/dfs

进行HDFS文件系统进行格式化:$ hdfs namenode -format

(4)再次调用start-dfs.sh和start-yarn.sh,启动服务

(2)、进行文件导入测试

把要测试的输入文件放在文件系统中,输入的文件为note.txt,文件的目录为/home/tom/psa,文件内容为:

12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+001212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+011212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+021212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+003212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+004212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+010212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+011212345678903456
12345679867623119010123456798676231190501234567986762311901012345679867623119010123456+041212345678903456
12345679867623119010123456798676231190501234567986762311901012345679867623119010123456+008212345678903456


通过如下命令进行测

$ hdfs dfs -put /home/tom/psa input

http://192.168.0.106:50070/

这里的IP地址根据你实际的Hadoop服务器地址。

这篇关于虚拟机ubuntu部署hadoop2.2.0伪分布(2)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/470579

相关文章

ubuntu如何部署Dify以及安装Docker? Dify安装部署指南

《ubuntu如何部署Dify以及安装Docker?Dify安装部署指南》Dify是一个开源的大模型应用开发平台,允许用户快速构建和部署基于大语言模型的应用,ubuntu如何部署Dify呢?详细请... Dify是个不错的开源LLM应用开发平台,提供从 Agent 构建到 AI workflow 编排、RA

ubuntu系统使用官方操作命令升级Dify指南

《ubuntu系统使用官方操作命令升级Dify指南》Dify支持自动化执行、日志记录和结果管理,适用于数据处理、模型训练和部署等场景,今天我们就来看看ubuntu系统中使用官方操作命令升级Dify的方... Dify 是一个基于 docker 的工作流管理工具,旨在简化机器学习和数据科学领域的多步骤工作流。

如何在Ubuntu上安装NVIDIA显卡驱动? Ubuntu安装英伟达显卡驱动教程

《如何在Ubuntu上安装NVIDIA显卡驱动?Ubuntu安装英伟达显卡驱动教程》Windows系统不同,Linux系统通常不会自动安装专有显卡驱动,今天我们就来看看Ubuntu系统安装英伟达显卡... 对于使用NVIDIA显卡的Ubuntu用户来说,正确安装显卡驱动是获得最佳图形性能的关键。与Windo

ubuntu16.04如何部署dify? 在Linux上安装部署Dify的技巧

《ubuntu16.04如何部署dify?在Linux上安装部署Dify的技巧》随着云计算和容器技术的快速发展,Docker已经成为现代软件开发和部署的重要工具之一,Dify作为一款优秀的云原生应用... Dify 是一个基于 docker 的工作流管理工具,旨在简化机器学习和数据科学领域的多步骤工作流。它

Nginx部署React项目时重定向循环问题的解决方案

《Nginx部署React项目时重定向循环问题的解决方案》Nginx在处理React项目请求时出现重定向循环,通常是由于`try_files`配置错误或`root`路径配置不当导致的,本文给大家详细介... 目录问题原因1. try_files 配置错误2. root 路径错误解决方法1. 检查 try_f

双系统电脑中把Ubuntu装进外接移动固态硬盘的全过程

《双系统电脑中把Ubuntu装进外接移动固态硬盘的全过程》:本文主要介绍如何在Windows11系统中使用VMware17创建虚拟机,并在虚拟机中安装Ubuntu22.04桌面版或Ubunt... 目录一、首先win11中安装vmware17二、磁盘分区三、保存四、使用虚拟机进行系统安装五、遇见的错误和解决

CentOS和Ubuntu系统使用shell脚本创建用户和设置密码

《CentOS和Ubuntu系统使用shell脚本创建用户和设置密码》在Linux系统中,你可以使用useradd命令来创建新用户,使用echo和chpasswd命令来设置密码,本文写了一个shell... 在linux系统中,你可以使用useradd命令来创建新用户,使用echo和chpasswd命令来设

Spring Boot项目部署命令java -jar的各种参数及作用详解

《SpringBoot项目部署命令java-jar的各种参数及作用详解》:本文主要介绍SpringBoot项目部署命令java-jar的各种参数及作用的相关资料,包括设置内存大小、垃圾回收... 目录前言一、基础命令结构二、常见的 Java 命令参数1. 设置内存大小2. 配置垃圾回收器3. 配置线程栈大小

Ubuntu中远程连接Mysql数据库的详细图文教程

《Ubuntu中远程连接Mysql数据库的详细图文教程》Ubuntu是一个以桌面应用为主的Linux发行版操作系统,这篇文章主要为大家详细介绍了Ubuntu中远程连接Mysql数据库的详细图文教程,有... 目录1、版本2、检查有没有mysql2.1 查询是否安装了Mysql包2.2 查看Mysql版本2.

tomcat多实例部署的项目实践

《tomcat多实例部署的项目实践》Tomcat多实例是指在一台设备上运行多个Tomcat服务,这些Tomcat相互独立,本文主要介绍了tomcat多实例部署的项目实践,具有一定的参考价值,感兴趣的可... 目录1.创建项目目录,测试文China编程件2js.创建实例的安装目录3.准备实例的配置文件4.编辑实例的