Hadoop基础学习:基于Hortonworks HDP

2024-06-10 00:08

本文主要是介绍Hadoop基础学习:基于Hortonworks HDP,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Hadoop基础学习:基于Hortonworks
HDP

我最开始是通过Hadoop Fundamentals这个课程学习了Hadoop的基础知识,该课程使用了Hortonworks的HDP作为Hadoop平台。HDP是一个与Cloudera,
MapR类似的一个企业级Hadoop解决方案,而HDP Sandbox给开发者提供了一个安装好所有Hadoop组件的虚拟机,将其导入到VirtualBox后就可以直接启动(注意需要给虚拟机分配至少2G内存)。

Big Data和Hadoop

大数据是一个热门词汇,而Hadoop可以说是目前大数据处理的基石。大数据并不是说一定要处理特别大规模的数据,而是在于可以在各种数据尺度上找到你要的答案,这些数据包括:用户数据,机器数据等等。我们可以从基础设施,算法和可视化等各个方面来理解大数据。

在基础设施方面,我们有Hadoop的HDFS作为文件系统,MapReduce来做批处理,此外有HBase,Cassandra,Riak等NoSQL数据库,还有Kafka,RabbitMQ等消息中间件。在算法方面,主要是对现有的机器学习算法的实现。在可视化方面,常见的有Matplotlib(python语言),R语言,D3(JavaScript语言)。 

 

初步认识HDP

HDP是操作系统是CentOS 6,启动后除了可以用ssh登陆以外,还可以登陆网页界面(http://127.0.0.1:8888)。系统默认帮我们安装的软件主要包括:

  • HDFS + MapReduce
  • Hue
  • HCatelog
  • Pig
  • Hive

HBase默认没有安装,启用HBase的话应该需要给虚拟机分配更多内存。

Hadoop是一个开源的数据分析平台,它与传统的数据分析平台相比当然有很多优点(开源,性价比,扩展性等),但是它们本质上并没有太大不同。一个完整的数据分析平台需要的组件Hadoop都有涉及:

  • 数据存储 : HDFS提供一个可扩展和容错的文件系统
  • 数据处理:MapReduce等提供了的数据访问和处理模型
  • 数据管理:HCatelog提供数据管理,管理数据到文件的映射(相当于RDBMS数据库中管理表结构与表文件的关系)
  • 数据查询:Pig和Hive对数据文件的查询,它们在底层都基于MapReduce模型来处理数据。其中Hive的特点在于提供类似于SQL语言的查询环境,Pig提供了自己的数据处理语言
  • 系统管理:Zookeeper和Oozie等

 

通过HDP自带的教程学习了Hive和Pig的基本知识,HDP自带了基于Web的Hive和Pig的查询界面,使用起来比命令行要友好。

Pig脚本

Pig首先实现了一种ETL语言(PigLatin),通过使用LOAD,GROUP等系统命令以及自定义命令,可以对数据进行复杂的处理。另一方面,Pig在执行命令时会把命令转化为MapReduce任务,也就是说对于很多MapReduce操作用户不再需要使用冗长的Java编程=》编译=》执行流程。最后,Pig也允许用户实现自定义方法(UDF)来扩展功能。

 
  1. //从文件中加载数据
  2. batting = load 'Batting.csv' using PigStorage(',');
  3.  
  4. //读取文件中的若干列
  5. runs = FOREACH batting GENERATE $0 as playerID, $1 as year, $8 as runs;
  6.  
  7. //按照年份划分数据
  8. grp_data = GROUP runs by (year);
  9.  
  10. //对划分后的数据进行进一步处理
  11. max_runs = FOREACH grp_data GENERATE group as grp,MAX(runs.runs) as max_runs;
  12.  
  13. //连接max_runs和runs,按照指定的两个列连接,连接的表包括两表的所有列
  14. join_max_run = JOIN max_runs by ($0, max_runs), runs by (year,runs);
  15.  
  16. //重新选取部分列
  17. join_data = FOREACH join_max_run GENERATE $0 as year, $2 as playerID, $1 as runs;
  18.  
  19. dump join_data;
  20.  

Hive查询

如果说Pig在传统数据仓库的意义上是一种ETL语言(当然Pig的用处不止于此),那么Hive相当于传统数据仓库中的SQL语言。Hive则可以允许你创建表,在表中导入和处理数据,数据处理的结果可以再保存到表中。Hive和Pig的详细比较可以参照这篇文章。

下面这写Hive命令实现了与前面Pig脚本一样的功能。

 
  1. create table temp_batting (col_value STRING);
  2.  
  3. LOAD DATA INPATH '/user/hue/Batting.csv' OVERWRITE INTO TABLE temp_batting;
  4.  
  5. create table batting (player_id STRING, year INT, runs INT);
  6.  
  7. insert overwrite table batting
  8. SELECT
  9. regexp_extract(col_value, '^(?:([^,]*)\,?){1}', 1) player_id,
  10. regexp_extract(col_value, '^(?:([^,]*)\,?){2}', 1) year,
  11. regexp_extract(col_value, '^(?:([^,]*)\,?){9}', 1) run
  12. from temp_batting;
  13.  
  14. SELECT year, max(runs) FROM batting GROUP BY year;
  15.  
  16. SELECT a.year, a.player_id, a.runs from batting a
  17. JOIN (SELECT year, max(runs) runs FROM batting GROUP BY year ) b
  18. ON (a.year = b.year AND a.runs = b.runs) ;

HBase和MapReduce编程

HBase是Google的BigTable的一种实现,即面向列的数据库。HBase相对于Hadoop比较独立,原因在于:1)HBase不依赖于MapReduce,它可以完全不在HDFS上部署,虽然在生产环境上会推荐部署到HDFS上;2)HBase的编程模型也不一定是MapReduce。

HBase和MapReduce编程可以参考Hadoop:
The Definitive Guide。

Hadoop的最新发展

Apache Tez, 新一代的准实时(near real-time)大数据处理。在Hadoop 2.0的环境下,MapReduce(也就是传统的Batch编程模式)仅仅是其一种实现,而Tez成为了新一代的任务执行引擎,反过来支持MapRecue,Pig,Hive等功能。

 

Apache Storm,实时数据处理

Apache Flume,流式数据(例如日志)的处理

Apache Mahout,机器学习算法库

Apache ZooKeeper 分布式系统协调服务

这篇关于Hadoop基础学习:基于Hortonworks HDP的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1046693

相关文章

从基础到高级详解Go语言中错误处理的实践指南

《从基础到高级详解Go语言中错误处理的实践指南》Go语言采用了一种独特而明确的错误处理哲学,与其他主流编程语言形成鲜明对比,本文将为大家详细介绍Go语言中错误处理详细方法,希望对大家有所帮助... 目录1 Go 错误处理哲学与核心机制1.1 错误接口设计1.2 错误与异常的区别2 错误创建与检查2.1 基础

Spring的基础事务注解@Transactional作用解读

《Spring的基础事务注解@Transactional作用解读》文章介绍了Spring框架中的事务管理,核心注解@Transactional用于声明事务,支持传播机制、隔离级别等配置,结合@Tran... 目录一、事务管理基础1.1 Spring事务的核心注解1.2 注解属性详解1.3 实现原理二、事务事

Java中最全最基础的IO流概述和简介案例分析

《Java中最全最基础的IO流概述和简介案例分析》JavaIO流用于程序与外部设备的数据交互,分为字节流(InputStream/OutputStream)和字符流(Reader/Writer),处理... 目录IO流简介IO是什么应用场景IO流的分类流的超类类型字节文件流应用简介核心API文件输出流应用文

从基础到高级详解Python数值格式化输出的完全指南

《从基础到高级详解Python数值格式化输出的完全指南》在数据分析、金融计算和科学报告领域,数值格式化是提升可读性和专业性的关键技术,本文将深入解析Python中数值格式化输出的相关方法,感兴趣的小伙... 目录引言:数值格式化的核心价值一、基础格式化方法1.1 三种核心格式化方式对比1.2 基础格式化示例

redis-sentinel基础概念及部署流程

《redis-sentinel基础概念及部署流程》RedisSentinel是Redis的高可用解决方案,通过监控主从节点、自动故障转移、通知机制及配置提供,实现集群故障恢复与服务持续可用,核心组件包... 目录一. 引言二. 核心功能三. 核心组件四. 故障转移流程五. 服务部署六. sentinel部署

从基础到进阶详解Python条件判断的实用指南

《从基础到进阶详解Python条件判断的实用指南》本文将通过15个实战案例,带你大家掌握条件判断的核心技巧,并从基础语法到高级应用一网打尽,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录​引言:条件判断为何如此重要一、基础语法:三行代码构建决策系统二、多条件分支:elif的魔法三、

Python WebSockets 库从基础到实战使用举例

《PythonWebSockets库从基础到实战使用举例》WebSocket是一种全双工、持久化的网络通信协议,适用于需要低延迟的应用,如实时聊天、股票行情推送、在线协作、多人游戏等,本文给大家介... 目录1. 引言2. 为什么使用 WebSocket?3. 安装 WebSockets 库4. 使用 We

Unity新手入门学习殿堂级知识详细讲解(图文)

《Unity新手入门学习殿堂级知识详细讲解(图文)》Unity是一款跨平台游戏引擎,支持2D/3D及VR/AR开发,核心功能模块包括图形、音频、物理等,通过可视化编辑器与脚本扩展实现开发,项目结构含A... 目录入门概述什么是 UnityUnity引擎基础认知编辑器核心操作Unity 编辑器项目模式分类工程

从基础到高阶详解Python多态实战应用指南

《从基础到高阶详解Python多态实战应用指南》这篇文章主要从基础到高阶为大家详细介绍Python中多态的相关应用与技巧,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、多态的本质:python的“鸭子类型”哲学二、多态的三大实战场景场景1:数据处理管道——统一处理不同数据格式

Python学习笔记之getattr和hasattr用法示例详解

《Python学习笔记之getattr和hasattr用法示例详解》在Python中,hasattr()、getattr()和setattr()是一组内置函数,用于对对象的属性进行操作和查询,这篇文章... 目录1.getattr用法详解1.1 基本作用1.2 示例1.3 原理2.hasattr用法详解2.