Hadoop-之配置LZO压缩完整手册

2023-12-10 13:39

本文主要是介绍Hadoop-之配置LZO压缩完整手册,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Hadoop-之配置LZO压缩完整手册

1 前言

HADOOP本身除了GIP、DEFLATE、BZIP2等压缩之外是不支持LZO压缩的,所以我们加入需要让HDFS支持LZO(一种可切分的压缩形式,压缩率也很低)压缩,我们需要引入Twitter的Hadoop-LZO,参考地址为:https://github.com/twitter/hadoop-lzo/

2 hadoop-lzo的编译-构建与配置流程

2.1 环境准备

  • maven

    • 下载安装,环境变量,修改阿里云镜像
  • gcc-c++

  • zlib-devel

  • autoconf

  • automake

  • libtool

#除了maven,其它的前提条件通过yum进行安装
yum -y install gcc-c++ lzo-devel zlib-devel autoconf automake libtool 

2.1 下载安装并编译lzo

#step1 
wget https://www.oberhumer.com/opensource/lzo/download/lzo-2.10.tar.gz#step2
tar -zxvf lzo-2.10.tar.gz -C /opt/module #step3 
cd /opt/module/lzo-2.10#step4
./configure --enable-shared --prefix /usr/local/hadoop/lzo#step5
make 
make install 

2.2 编译hadoop-lzo源码

#step1 下载hadoop-lzo源码
wget https://github.com/twitter/hadoop-lzo/archive/master.zip#step2 解压,并修改配置pom.xml文件
<hadoop.current.version>2.7.7</hadoop.current.version>#step3 声明2个临时的环境变量
export C_INCLUDE_PATH=/usr/local/hadoop/lzo/include 
export LIBRARY_PATH=/usr/local/hadoop/lzo/lib #step4 编译
cd /hadoop-lzo-master
mvn package -Dmaven.test.skip=true#step5 进入target目录
#hadoop-lzo 0.4.21-SNAPSHOT.jar就是编译成功的hadoop-lzo组件
pwd 
>>>>>
/opt/module/hadoop-lzo-master/targetlS -ahl
>>>>>
drwxr-xr-x. 2 root root   4096 Jan  9 15:19 antrun
drwxr-xr-x. 4 root root   4096 Jan  9 15:20 apidocs
drwxr-xr-x. 5 root root     77 Jan  9 15:19 classes
drwxr-xr-x. 3 root root     25 Jan  9 15:19 generated-sources
-rw-r--r--. 1 root root 188965 Jan  9 15:19 hadoop-lzo-0.4.21-SNAPSHOT.jar
-rw-r--r--. 1 root root 180845 Jan  9 15:20 hadoop-lzo-0.4.21-SNAPSHOT-javadoc.jar
-rw-r--r--. 1 root root  52042 Jan  9 15:19 hadoop-lzo-0.4.21-SNAPSHOT-sources.jar
drwxr-xr-x. 2 root root     71 Jan  9 15:20 javadoc-bundle-options
drwxr-xr-x. 2 root root     28 Jan  9 15:19 maven-archiver
drwxr-xr-x. 3 root root     28 Jan  9 15:19 native
drwxr-xr-x. 3 root root     18 Jan  9 15:19 test-classes

2.3 将编译好的jar包放入hadoop的common目录下

cp hadoop-lzo-0.4.21-SNAPSHOT.jar /opt/module/hadoop-2.7.7/share/hadoop/common/

2.4 分发jar包到其它的节点

cd /opt/module/hadoop-2.7.7/share/hadoop/common/
xsync hadoop-lzo-0.4.21-SNAPSHOT.jar

2.4 配置core-site.xml文件,配置LZO,并分发

<!--vim core-site.xml-->
<!--配置hadoop的lzo压缩支持-->
<property><name>io.compression.codecs</name><value>org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.BZip2Codec,org.apache.hadoop.io.compress.SnappyCodec,com.hadoop.compression.lzo.LzoCodec,com.hadoop.compression.lzo.LzopCodec</value>
</property>
<property><name>io.compression.codec.lzo.class</name><value>com.hadoop.compression.lzo.LzoCodec</value>
</property>
xsync core-site.xml

3 验证是否配置lzo成功

执行流程如下。

#step1 在本地创建一个文件test.txt
touch test.txt 
echo mother fucker damn shit >> test.txt #step2 上传至hdfs
hadoop fs -mkdir /input 
hadoop fs -put test.txt /input#step3 通过自带的mapreduce包执行wordcount命令如下,将结果输出到/output,需指定mapreduce的输出端压缩配置参数:mapreduce.output.fileoutputformat.compress=true mapreduce.output.fileoutputformat.compress.codec=com.hadoop.compression.lzo.LzopCodec
hadoop jar /opt/module/hadoop-2.7.7/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount -Dmapreduce.output.fileoutputformat.compress=true -Dmapreduce.output.fileoutputformat.compress.codec=com.hadoop.compression.lzo.LzopCodec /input /output 

最终假如在HDFS的web端看到如下结果,说明lzo配置成功。切记
输出端lzo压缩结果

  • 我们平常说的lzo压缩是使用com.hadoop.compression.lzo.LzopCodec
  • 如果使用的是com.hadoop.compression.lzo.LzoCodec,那么生成的文件就是xx.lzo_deflate

4 LZO支持切片操作

参考地址:https://github.com/twitter/hadoop-lzo/#using-hadoop-and-lzo

如何让LZO文件支持切片,原生的.lzo文件之不支持切片的,我们需要通过hadoop的命令将某个文件建立切片索引,然后该lzo文件才能支持切片,建立索引的方式有2种

#方式1 
hadoop jar /path/to/your/hadoop-lzo.jar com.hadoop.compression.lzo.LzoIndexer big_file.lzo#方式2 
hadoop jar /path/to/your/hadoop-lzo.jar com.hadoop.compression.lzo.DistributedLzoIndexer big_file.lzo

因为切片的个数决定了Mapreduce任务的Maptask的个数,我们可以通过一个lzo文件分别在建立索引前后跑一下Mapreduce任务,查看job中的切片或者(map-task)的个数。

  • 对比流程操作如下
# 建立索引之前的准备,准备一个超过128M的lzo文件,假如命名为part-r-00000.lzo,且在/input1目录下# 1 创建索引之前执行MR
hadoop jar /opt/module/hadoop-2.7.7/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount -Dmapreduce.job.inputformat.class=com.hadoop.mapreduce.LzoTextInputFormat /input1 /output1################################################################### 2 创建索引,然后执行MR
hadoop fs -rm -r /output1
#最终会为part-r-00000.lzo创建一个part-r-00000.lzo.index的索引文件,假如这个执行的参数为一个路径,那么会为路径下的每个lzo文件创建一个对应的.index索引。
hadoop jar /path/to/your/hadoop-lzo.jar com.hadoop.compression.lzo.DistributedLzoIndexer part-r-00000.lzohadoop jar /opt/module/hadoop-2.7.7/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount -Dmapreduce.job.inputformat.class=com.hadoop.mapreduce.LzoTextInputFormat /input1 /output1
  • MR任务的日志信息显示样例
>>>>>>>#以下是跑MR任务的日志信息显示样例
21/01/10 19:34:10 INFO input.FileInputFormat: Total input paths to process : 1
21/01/10 19:34:10 INFO mapreduce.JobSubmitter: number of splits:1#切片个数Job CountersLaunched map tasks=1 #map task的个数

这篇关于Hadoop-之配置LZO压缩完整手册的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/477258

相关文章

MySQL数据库双机热备的配置方法详解

《MySQL数据库双机热备的配置方法详解》在企业级应用中,数据库的高可用性和数据的安全性是至关重要的,MySQL作为最流行的开源关系型数据库管理系统之一,提供了多种方式来实现高可用性,其中双机热备(M... 目录1. 环境准备1.1 安装mysql1.2 配置MySQL1.2.1 主服务器配置1.2.2 从

SpringBoot基于注解实现数据库字段回填的完整方案

《SpringBoot基于注解实现数据库字段回填的完整方案》这篇文章主要为大家详细介绍了SpringBoot如何基于注解实现数据库字段回填的相关方法,文中的示例代码讲解详细,感兴趣的小伙伴可以了解... 目录数据库表pom.XMLRelationFieldRelationFieldMapping基础的一些代

Nginx搭建前端本地预览环境的完整步骤教学

《Nginx搭建前端本地预览环境的完整步骤教学》这篇文章主要为大家详细介绍了Nginx搭建前端本地预览环境的完整步骤教学,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录项目目录结构核心配置文件:nginx.conf脚本化操作:nginx.shnpm 脚本集成总结:对前端的意义很多

Linux云服务器手动配置DNS的方法步骤

《Linux云服务器手动配置DNS的方法步骤》在Linux云服务器上手动配置DNS(域名系统)是确保服务器能够正常解析域名的重要步骤,以下是详细的配置方法,包括系统文件的修改和常见问题的解决方案,需要... 目录1. 为什么需要手动配置 DNS?2. 手动配置 DNS 的方法方法 1:修改 /etc/res

mysql8.0.43使用InnoDB Cluster配置主从复制

《mysql8.0.43使用InnoDBCluster配置主从复制》本文主要介绍了mysql8.0.43使用InnoDBCluster配置主从复制,文中通过示例代码介绍的非常详细,对大家的学习或者... 目录1、配置Hosts解析(所有服务器都要执行)2、安装mysql shell(所有服务器都要执行)3、

在Ubuntu上打不开GitHub的完整解决方法

《在Ubuntu上打不开GitHub的完整解决方法》当你满心欢喜打开Ubuntu准备推送代码时,突然发现终端里的gitpush卡成狗,浏览器里的GitHub页面直接变成Whoathere!警告页面... 目录一、那些年我们遇到的"红色惊叹号"二、三大症状快速诊断症状1:浏览器直接无法访问症状2:终端操作异常

Spring Boot分层架构详解之从Controller到Service再到Mapper的完整流程(用户管理系统为例)

《SpringBoot分层架构详解之从Controller到Service再到Mapper的完整流程(用户管理系统为例)》本文将以一个实际案例(用户管理系统)为例,详细解析SpringBoot中Co... 目录引言:为什么学习Spring Boot分层架构?第一部分:Spring Boot的整体架构1.1

mybatis直接执行完整sql及踩坑解决

《mybatis直接执行完整sql及踩坑解决》MyBatis可通过select标签执行动态SQL,DQL用ListLinkedHashMap接收结果,DML用int处理,注意防御SQL注入,优先使用#... 目录myBATiFBNZQs直接执行完整sql及踩坑select语句采用count、insert、u

java程序远程debug原理与配置全过程

《java程序远程debug原理与配置全过程》文章介绍了Java远程调试的JPDA体系,包含JVMTI监控JVM、JDWP传输调试命令、JDI提供调试接口,通过-Xdebug、-Xrunjdwp参数配... 目录背景组成模块间联系IBM对三个模块的详细介绍编程使用总结背景日常工作中,每个程序员都会遇到bu

JS纯前端实现浏览器语音播报、朗读功能的完整代码

《JS纯前端实现浏览器语音播报、朗读功能的完整代码》在现代互联网的发展中,语音技术正逐渐成为改变用户体验的重要一环,下面:本文主要介绍JS纯前端实现浏览器语音播报、朗读功能的相关资料,文中通过代码... 目录一、朗读单条文本:① 语音自选参数,按钮控制语音:② 效果图:二、朗读多条文本:① 语音有默认值:②