用sqoop实现mysql和hive数据互导

2024-06-07 08:38

本文主要是介绍用sqoop实现mysql和hive数据互导,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在此测试的是伪分布式

hadoop1.2.1

sqoop-1.4.4.bin__hadoop-1.0.0

hive-0.12.0

1、数据准备

1.1建立测试用户sqoop

grant all privileges on *.* to 'sqoop'@'%' identified by 'sqoop' with grant option;
注意:这一步不是必须,也可以在mysql的root用户下进行

1.2在sqoop用户下,创建sqoop数据库,在sqoop库中建表employee

create database sqoop;use sqoop;create table employee(employee_id int not null primary key,
employee_name varchar(30));
insert into employee values(101,'zhangsan');
insert into employee values(102,'lisi');
insert into employee values(103,'wangwu');

此时,在sqoop库中的employee表中已经存在三条记录,可以select查询验证。

2、将Mysql中的sqoop用户下的sqoop库中的employee表中的数据导入hive中

2.1mysql中的employee表导入hive

sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password sqoop --table employee --hive-import -m 1

在HDFS的/user/hive/warehouse目录下查看导入的结果

cwjy1202@cwjy1202-Lenovo-IdeaPad-Y471A:~$ hadoop dfs -ls /user/hive/warehouse/employee/
Warning: $HADOOP_HOME is deprecated.Found 2 items
-rw-r--r--   1 cwjy1202 supergroup          0 2014-06-04 14:38 /user/hive/warehouse/employee/_SUCCESS
-rw-r--r--   1 cwjy1202 supergroup         33 2014-06-04 14:38 /user/hive/warehouse/employee/part-m-00000

cwjy1202@cwjy1202-Lenovo-IdeaPad-Y471A:~$ hadoop dfs -cat /user/hive/warehouse/employee/part-m-00000
Warning: $HADOOP_HOME is deprecated.101zhangsan
102lisi
103wangwu

2.2去掉导入语句的参数 -m 1

sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password sqoop --table employee --hive-import 
显示的结果如下:

Found 4 items
-rw-r--r--   1 cwjy1202 supergroup          0 2014-06-04 14:10 /user/hive/warehouse/employee/_SUCCESS
-rw-r--r--   1 cwjy1202 supergroup         13 2014-06-04 14:10 /user/hive/warehouse/employee/part-m-00000
-rw-r--r--   1 cwjy1202 supergroup          9 2014-06-04 14:10 /user/hive/warehouse/employee/part-m-00001
-rw-r--r--   1 cwjy1202 supergroup         11 2014-06-04 14:10 /user/hive/warehouse/employee/part-m-00002
三条记录分别存在part-m-00000、part-m-00001和part-m-00002中

3、hive的数据导入mysql

3.1把mysql中的employee表清空

在linux终端输入:

mysql -usqoop -p回车
密码truncate table sqoop.employee;
mysql> select * from sqoop.employee;
Empty set (0.00 sec)
删除成功!!!

3.2从hive到mysql

在linux终端输入:

sqoop export --connect jdbc:mysql://localhost:3306/sqoop -username sqoop -password sqoop --table employee 
--export-dir /user/hive/warehouse/employee --input-fields-terminated-by '\001'

说明:jdbc:mysql://localhost:3306/sqoop  3306是mysql的端口;localhost是mysql的安装ip地址,运行时根据自己的情况而定;sqoop是mysql中的数据库。

hive中字段的默认分割符为'\001'

运行过程的最后显示Export 3 records如下:

14/06/04 14:49:45 INFO mapreduce.ExportJobBase: Transferred 760 bytes in 11.8562 seconds (64.1017 bytes/sec)
14/06/04 14:49:45 INFO mapreduce.ExportJobBase: Exported 3 records.

查询mysql中的employee验证数据是否存在:

mysql> select * from sqoop.employee;
+-------------+---------------+
| employee_id | employee_name |
+-------------+---------------+
|         101 | zhangsan      |
|         102 | lisi          |
|         103 | wangwu        |
+-------------+---------------+
3 rows in set (0.00 sec)

导入mysql成功!!!

额外说明:

因为mysql中的employee表的结构已经确定,employee_id为primary key,所以多次从hive导入相同的数据,只会第一成功。

操作如下,再一次在linux终端输入:

sqoop export --connect jdbc:mysql://localhost:3306/sqoop -username sqoop -password sqoop --table employee 
--export-dir /user/hive/warehouse/employee --input-fields-terminated-by '\001'

运行过程显示:

14/06/04 15:14:34 INFO mapred.JobClient: Task Id : attempt_201406041140_0012_m_000001_1, Status : <span style="color:#FF0000;"><strong>FAILED
Task</strong></span> attempt_201406041140_0012_m_000001_1 failed to report status for 600 seconds. Killing!
14/06/04 15:14:36 INFO mapred.JobClient:  map 25% reduce 0%
14/06/04 15:14:37 INFO mapred.JobClient: Task Id : attempt_201406041140_0012_m_000002_1, Status : <strong style="background-color: rgb(255, 0, 0);">FAILED<span style="color:#FF0000;background-color: rgb(255, 255, 255);">
Task at</span></strong>tempt_201406041140_0012_m_000002_1 failed to report status for 600 seconds. Killing!












这篇关于用sqoop实现mysql和hive数据互导的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/1038687

相关文章

Python实现精确小数计算的完全指南

《Python实现精确小数计算的完全指南》在金融计算、科学实验和工程领域,浮点数精度问题一直是开发者面临的重大挑战,本文将深入解析Python精确小数计算技术体系,感兴趣的小伙伴可以了解一下... 目录引言:小数精度问题的核心挑战一、浮点数精度问题分析1.1 浮点数精度陷阱1.2 浮点数误差来源二、基础解决

Java实现在Word文档中添加文本水印和图片水印的操作指南

《Java实现在Word文档中添加文本水印和图片水印的操作指南》在当今数字时代,文档的自动化处理与安全防护变得尤为重要,无论是为了保护版权、推广品牌,还是为了在文档中加入特定的标识,为Word文档添加... 目录引言Spire.Doc for Java:高效Word文档处理的利器代码实战:使用Java为Wo

Java实现远程执行Shell指令

《Java实现远程执行Shell指令》文章介绍使用JSch在SpringBoot项目中实现远程Shell操作,涵盖环境配置、依赖引入及工具类编写,详解分号和双与号执行多指令的区别... 目录软硬件环境说明编写执行Shell指令的工具类总结jsch(Java Secure Channel)是SSH2的一个纯J

使用Python实现Word文档的自动化对比方案

《使用Python实现Word文档的自动化对比方案》我们经常需要比较两个Word文档的版本差异,无论是合同修订、论文修改还是代码文档更新,人工比对不仅效率低下,还容易遗漏关键改动,下面通过一个实际案例... 目录引言一、使用python-docx库解析文档结构二、使用difflib进行差异比对三、高级对比方

深度解析Python中递归下降解析器的原理与实现

《深度解析Python中递归下降解析器的原理与实现》在编译器设计、配置文件处理和数据转换领域,递归下降解析器是最常用且最直观的解析技术,本文将详细介绍递归下降解析器的原理与实现,感兴趣的小伙伴可以跟随... 目录引言:解析器的核心价值一、递归下降解析器基础1.1 核心概念解析1.2 基本架构二、简单算术表达

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

QT Creator配置Kit的实现示例

《QTCreator配置Kit的实现示例》本文主要介绍了使用Qt5.12.12与VS2022时,因MSVC编译器版本不匹配及WindowsSDK缺失导致配置错误的问题解决,感兴趣的可以了解一下... 目录0、背景:qt5.12.12+vs2022一、症状:二、原因:(可以跳过,直奔后面的解决方法)三、解决方

MySQL中On duplicate key update的实现示例

《MySQL中Onduplicatekeyupdate的实现示例》ONDUPLICATEKEYUPDATE是一种MySQL的语法,它在插入新数据时,如果遇到唯一键冲突,则会执行更新操作,而不是抛... 目录1/ ON DUPLICATE KEY UPDATE的简介2/ ON DUPLICATE KEY UP

Python中Json和其他类型相互转换的实现示例

《Python中Json和其他类型相互转换的实现示例》本文介绍了在Python中使用json模块实现json数据与dict、object之间的高效转换,包括loads(),load(),dumps()... 项目中经常会用到json格式转为object对象、dict字典格式等。在此做个记录,方便后续用到该方

MySQL分库分表的实践示例

《MySQL分库分表的实践示例》MySQL分库分表适用于数据量大或并发压力高的场景,核心技术包括水平/垂直分片和分库,需应对分布式事务、跨库查询等挑战,通过中间件和解决方案实现,最佳实践为合理策略、备... 目录一、分库分表的触发条件1.1 数据量阈值1.2 并发压力二、分库分表的核心技术模块2.1 水平分