hive数据新旧平台迁移

2023-12-11 10:48
文章标签 数据 平台 hive 迁移 新旧

本文主要是介绍hive数据新旧平台迁移,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

背景:年前就已经规划好了,今年要将所有的数据接入一个大的平台,新平台搭建好,将旧平台的数据迁移过去即可。此时轮到本小组将自己的旧平台数据迁移到新平台中。注:旧平台5.12,新平台6.1.1。
自己遇到的问题并解决。
1.脚本中文传参不行,会出现乱码,这个其实没根本解决。最后是将这些品类 自定义标准码 利用数字或英文来代替,在脚本中做一个if判断,变量接收传进入的。有的直接不能导出全乱码,思路是先用unicode 先将中文转成英文字符,传到另外的存储后再解码就好了。
2.由于新平台权限管制很严。有些数据得到的很耗时不可能能重新跑,导出文件再上传到新平台。导出时下载有限制最多只能10w。解决方法:
1.HIVE导出超过10万的数据.
set hive.exec.compress.output=false;
insert overwrite directory ‘/user/data_ware/tmp/CSQ’
ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t’
select * from TABLE
3.新平台只有自己的账号下有权限。其他目录创建不了文件夹。将2中的文件上传到自己的目录下,impala或hive中创建外部表
create external table if not exists uinteg_dw.map_jwd_test(id string ,detail_address string , lng string , lat string )
row format delimited fields terminated by ‘\t’
stored as textfile
location ‘/user/uintegrate/jwd’;
注意:这个row format delimited fields terminated by '\t’要与导出的规则一致。要不然创建了也改看不到数据。
再创建内部表 将外部表中数据倒入即可:
create table if not exists uinteg_dw.map_jwd as
select * from uinteg_dw.map_jwd_test
注意:问题外部表和内部表结构要一致。
4.hive中数据同步到Elasticsearch 之前用jdbc连,需要引用外部jar add jar xxxxx,报错权限不足。这种方式不行,改为hive -e来进行连。

5.将分区表中每日增量数据导出半年的数据。 导出时建分区表,会多加要分区的字段。就用循环方式而且还通用。缺点是一个循环就是一个mr很耗资源。
#!/bin/sh

********************************************************************************

程序名称: P_EXP_ALL_TEMPLATE_STATDATE

功能描述: 4.1.1 数据导出-日增量-统计日

输入参数: p_in_time_str,p_in_time_end

输入资源: hadoop.T_XXXX

输出资源: mysql.T_XXXX

中间资源:

创建人员: CSQ

创建日期:

版本说明:

修改人员:

修改日期:

修改原因:

版本说明:

********************************************************************************

程序逻辑

1. 依据输入参数(数据源,开始日期,结束日期),将hadoop平台的报表导入到mysql对应表去

********************************************************************************

#引用公共参数,获取下游数据库权限赋值
source P_PARAMETER_EXP_DB_MYSQL_TEST.sh
source P_PARAMETER_SHARE.sh
export HADOOP_USER_NAME=uintegrate
vc_tablename=$1
ve_tablename=$2

if [ KaTeX parse error: Expected 'EOF', got '#' at position 1: #̲ -eq 2 ]; the…p_in_time_str
elif [ $# -eq 3 ];
then
p_in_time_str=$3
p_in_time_end=$3
elif [ $# -eq 4 ];
then
p_in_time_str=$3
p_in_time_end=$4
else
p_in_time_str=‘1901-01-01 00:00:00’
p_in_time_end=‘1901-01-01 00:00:00’
fi

vi_stat_st=date -d $p_in_time_str +%Y-%m-%d
vi_stat_ed=date -d $p_in_time_end +%Y-%m-%d

#获取链接信息,里面包含 ip,端口,用户,密码,数据库
dblist=${VC_DBLIST}

dbhost=echo "${dblist}" |awk -F, '{print $1}'
dbport=echo "${dblist}" |awk -F, '{print $2}'
dbuser=echo "${dblist}" |awk -F, '{print $3}'
dbpw=echo "${dblist}" |awk -F, '{print $4}'
dbname=echo "${dblist}" |awk -F, '{print $5}'

echo “ p i n t i m e s t r " , " p_in_time_str"," pintimestr","p_in_time_end”,“ v i s t a t s t " , " vi_stat_st"," vistatst","vi_stat_ed”

while [[ $vi_stat_st < date -d "+1 day $vi_stat_ed" +%Y-%m-%d ]]
do
echo KaTeX parse error: Expected '}', got 'EOF' at end of input: …/uinteg_ods.db/vc_tablename/createtime=$vi_stat_st
if [ ? − e q 0 ] ; t h e n s q o o p e x p o r t − − c o n n e c t &quot; j d b c : m y s q l : / / ? -eq 0 ]; then sqoop export --connect &quot;jdbc:mysql:// ?eq0];thensqoopexportconnect"jdbc:mysql://{dbhost}: d b p o r t / {dbport}/ dbport/{dbname}?useUnicode=true&characterEncoding=utf-8" --username ${dbuser} --password ${dbpw} --table v e t a b l e n a m e − − e x p o r t − d i r / u s e r / h i v e / w a r e h o u s e / u i n t e g o d s . d b / {ve_tablename} --export-dir /user/hive/warehouse/uinteg_ods.db/ vetablenameexportdir/user/hive/warehouse/uintegods.db/vc_tablename/createtime=KaTeX parse error: Expected 'EOF', got '\0' at position 42: …terminated-by '\̲0̲01' --input-nul…vc_tablename/createtime=$vi_stat_st exists’
fi
}&&
{
vi_stat_st=date -d "+1 day $vi_stat_st" +%Y-%m-%d
}
done

做完后思考其实还可以用另一种方式:加就加分区,半年的整合成一张表,导出文件,上传到新平台,建一个外部表,再用3不过*不能用了,选择要的字段。

其他的还在继续。

这篇关于hive数据新旧平台迁移的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/480421

相关文章

SpringBoot多环境配置数据读取方式

《SpringBoot多环境配置数据读取方式》SpringBoot通过环境隔离机制,支持properties/yaml/yml多格式配置,结合@Value、Environment和@Configura... 目录一、多环境配置的核心思路二、3种配置文件格式详解2.1 properties格式(传统格式)1.

解决pandas无法读取csv文件数据的问题

《解决pandas无法读取csv文件数据的问题》本文讲述作者用Pandas读取CSV文件时因参数设置不当导致数据错位,通过调整delimiter和on_bad_lines参数最终解决问题,并强调正确参... 目录一、前言二、问题复现1. 问题2. 通过 on_bad_lines=‘warn’ 跳过异常数据3

C#监听txt文档获取新数据方式

《C#监听txt文档获取新数据方式》文章介绍通过监听txt文件获取最新数据,并实现开机自启动、禁用窗口关闭按钮、阻止Ctrl+C中断及防止程序退出等功能,代码整合于主函数中,供参考学习... 目录前言一、监听txt文档增加数据二、其他功能1. 设置开机自启动2. 禁止控制台窗口关闭按钮3. 阻止Ctrl +

java如何实现高并发场景下三级缓存的数据一致性

《java如何实现高并发场景下三级缓存的数据一致性》这篇文章主要为大家详细介绍了java如何实现高并发场景下三级缓存的数据一致性,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 下面代码是一个使用Java和Redisson实现的三级缓存服务,主要功能包括:1.缓存结构:本地缓存:使

在MySQL中实现冷热数据分离的方法及使用场景底层原理解析

《在MySQL中实现冷热数据分离的方法及使用场景底层原理解析》MySQL冷热数据分离通过分表/分区策略、数据归档和索引优化,将频繁访问的热数据与冷数据分开存储,提升查询效率并降低存储成本,适用于高并发... 目录实现冷热数据分离1. 分表策略2. 使用分区表3. 数据归档与迁移在mysql中实现冷热数据分

C#解析JSON数据全攻略指南

《C#解析JSON数据全攻略指南》这篇文章主要为大家详细介绍了使用C#解析JSON数据全攻略指南,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、为什么jsON是C#开发必修课?二、四步搞定网络JSON数据1. 获取数据 - HttpClient最佳实践2. 动态解析 - 快速

Linux之platform平台设备驱动详解

《Linux之platform平台设备驱动详解》Linux设备驱动模型中,Platform总线作为虚拟总线统一管理无物理总线依赖的嵌入式设备,通过platform_driver和platform_de... 目录platform驱动注册platform设备注册设备树Platform驱动和设备的关系总结在 l

MyBatis-Plus通用中等、大量数据分批查询和处理方法

《MyBatis-Plus通用中等、大量数据分批查询和处理方法》文章介绍MyBatis-Plus分页查询处理,通过函数式接口与Lambda表达式实现通用逻辑,方法抽象但功能强大,建议扩展分批处理及流式... 目录函数式接口获取分页数据接口数据处理接口通用逻辑工具类使用方法简单查询自定义查询方法总结函数式接口

MySQL 迁移至 Doris 最佳实践方案(最新整理)

《MySQL迁移至Doris最佳实践方案(最新整理)》本文将深入剖析三种经过实践验证的MySQL迁移至Doris的最佳方案,涵盖全量迁移、增量同步、混合迁移以及基于CDC(ChangeData... 目录一、China编程JDBC Catalog 联邦查询方案(适合跨库实时查询)1. 方案概述2. 环境要求3.

SQL中如何添加数据(常见方法及示例)

《SQL中如何添加数据(常见方法及示例)》SQL全称为StructuredQueryLanguage,是一种用于管理关系数据库的标准编程语言,下面给大家介绍SQL中如何添加数据,感兴趣的朋友一起看看吧... 目录在mysql中,有多种方法可以添加数据。以下是一些常见的方法及其示例。1. 使用INSERT I