hive中自定义UDT,UDTF函数

2024-05-01 00:38
文章标签 函数 自定义 hive udtf udt

本文主要是介绍hive中自定义UDT,UDTF函数,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

自定函数

**** 自定义函数

1.Hive 自带了一些函数,比如:max/min 等,但是数量有限,自己可以通过自定义 UDF 来

方便的扩展。

2.当 Hive 提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义

函数(UDF:user-defined function)。

3根据用户自定义函数类别分为以下三种:

(1)UDF(User-Defined-Function)

一进一出

(2)UDAF(User-Defined Aggregation Function)

聚集函数,多进一出

类似于:count/max/min

(3)UDTF(User-Defined Table-Generating Functions)

一进多出

如 lateral view explode()

1.使用idea自定义UDF函数

自定义一个 UDF 实现计算给定字符串的长度,例如:

hive(default)> select my_len("abcd"); 

1.创建maven工程

2.导入依赖

<dependencies><dependency><groupId>org.apache.hive</groupId><artifactId>hive-exec</artifactId><version>3.1.2</version></dependency></dependencies>

2.创建一个UDF类继承 GenericUDF 重写方法

package com.lhh.udf;import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;/*** @program: hive-api* @description:* @author: 华仔* @create: 2021-03-25 22:43*/
//自定义 myudf
public class MyUDF extends GenericUDF {//初始化 校验数据参数个数public ObjectInspector initialize(ObjectInspector[] objectInspectors) throws UDFArgumentException {if (objectInspectors.length != 1) {throw new UDFArgumentException("参数个数不为1");}return PrimitiveObjectInspectorFactory.javaIntObjectInspector;}//计算 处理数据public Object evaluate(DeferredObject[] deferredObjects) throws HiveException {///取出数据String input = deferredObjects[0].get().toString();//判断数据是否为nullif (input == null) {return 0;}//返回输入数据的长度
//        return input.toUpperCase();//转大写
//        return input.toLowerCase();//转小写return input.length();}public String getDisplayString(String[] strings) {return "";}
}
2.自定义 UDTF 函数

1.需求

自定义一个 UDTF 实现将一个任意分割符的字符串切割成独立的单词,例如

hive(default)> select myudtf("hello,world,hadoop,hive", ",");
hello
world
hadoop
hive

2.代码实现

package com.lhh.udf;import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;import java.util.ArrayList;
import java.util.List;/*** @program: hive-api* @description:* @author: 华仔* @create: 2021-03-25 23:23*/
//自定义myudtf/*** 输入数据: hello,atguigu,hive (stirng类型)* 输出数据 :* hello* atuigu* hive*/
public class MyUDTF extends GenericUDTF {//输出数据的集合private ArrayList<String> Output = new ArrayList<String>();//初始化 校验数据参数个数public StructObjectInspector initialize(ObjectInspector[] args) throws UDFArgumentException {//输出数据的默认列名,可以被别名覆盖List<String> fieldNames = new ArrayList<String>();fieldNames.add("word");//输出数据的类型List<ObjectInspector> fieldOIs = new ArrayList<ObjectInspector>();fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldOIs);}//处理输入数据public void process(Object[] objects) throws HiveException {//第一步取出输入数据String input = objects[0].toString();//取出自己定义的分隔符 select my_udtf(name,',') String s1 = objects[1].toString();//按分割符拆分String[] split = input.split(s1);for (String s : split) {//清空集合Output.clear();//将数据添加到集合Output.add(s);//输出数据forward(Output);}}//首尾方法public void close() throws HiveException {}
}
3.在hive中使用自定义方法

1.将工程导成jar包放到 /opt/module/hive/lib/ 下面去

2.添加jar包

add jar /opt/module/hive/data/hive-demo-1.0-SNAPSHOT.jar;

3.为稳妥,直接ctrl +c 先退出一波

4.重新进来创建自定函数

 --UDFcreate temporary function my_len as 
"com.lhh.udf.MyUDF";--UDTFcreate temporary function my_udtf as 
"com.lhh.udf.MUDTF";

5.使用自定义函数

--UDF  计算长度
SELECT my_len('lhhhuazi') from test;
--UDTF
SELECT MY_UDTF(words,',') from test;

这篇关于hive中自定义UDT,UDTF函数的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/950313

相关文章

Spring Security自定义身份认证的实现方法

《SpringSecurity自定义身份认证的实现方法》:本文主要介绍SpringSecurity自定义身份认证的实现方法,下面对SpringSecurity的这三种自定义身份认证进行详细讲解,... 目录1.内存身份认证(1)创建配置类(2)验证内存身份认证2.JDBC身份认证(1)数据准备 (2)配置依

Python的time模块一些常用功能(各种与时间相关的函数)

《Python的time模块一些常用功能(各种与时间相关的函数)》Python的time模块提供了各种与时间相关的函数,包括获取当前时间、处理时间间隔、执行时间测量等,:本文主要介绍Python的... 目录1. 获取当前时间2. 时间格式化3. 延时执行4. 时间戳运算5. 计算代码执行时间6. 转换为指

Python正则表达式语法及re模块中的常用函数详解

《Python正则表达式语法及re模块中的常用函数详解》这篇文章主要给大家介绍了关于Python正则表达式语法及re模块中常用函数的相关资料,正则表达式是一种强大的字符串处理工具,可以用于匹配、切分、... 目录概念、作用和步骤语法re模块中的常用函数总结 概念、作用和步骤概念: 本身也是一个字符串,其中

shell编程之函数与数组的使用详解

《shell编程之函数与数组的使用详解》:本文主要介绍shell编程之函数与数组的使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录shell函数函数的用法俩个数求和系统资源监控并报警函数函数变量的作用范围函数的参数递归函数shell数组获取数组的长度读取某下的

MySQL高级查询之JOIN、子查询、窗口函数实际案例

《MySQL高级查询之JOIN、子查询、窗口函数实际案例》:本文主要介绍MySQL高级查询之JOIN、子查询、窗口函数实际案例的相关资料,JOIN用于多表关联查询,子查询用于数据筛选和过滤,窗口函... 目录前言1. JOIN(连接查询)1.1 内连接(INNER JOIN)1.2 左连接(LEFT JOI

MySQL中FIND_IN_SET函数与INSTR函数用法解析

《MySQL中FIND_IN_SET函数与INSTR函数用法解析》:本文主要介绍MySQL中FIND_IN_SET函数与INSTR函数用法解析,本文通过实例代码给大家介绍的非常详细,感兴趣的朋友一... 目录一、功能定义与语法1、FIND_IN_SET函数2、INSTR函数二、本质区别对比三、实际场景案例分

C++ Sort函数使用场景分析

《C++Sort函数使用场景分析》sort函数是algorithm库下的一个函数,sort函数是不稳定的,即大小相同的元素在排序后相对顺序可能发生改变,如果某些场景需要保持相同元素间的相对顺序,可使... 目录C++ Sort函数详解一、sort函数调用的两种方式二、sort函数使用场景三、sort函数排序

C语言函数递归实际应用举例详解

《C语言函数递归实际应用举例详解》程序调用自身的编程技巧称为递归,递归做为一种算法在程序设计语言中广泛应用,:本文主要介绍C语言函数递归实际应用举例的相关资料,文中通过代码介绍的非常详细,需要的朋... 目录前言一、递归的概念与思想二、递归的限制条件 三、递归的实际应用举例(一)求 n 的阶乘(二)顺序打印

C/C++错误信息处理的常见方法及函数

《C/C++错误信息处理的常见方法及函数》C/C++是两种广泛使用的编程语言,特别是在系统编程、嵌入式开发以及高性能计算领域,:本文主要介绍C/C++错误信息处理的常见方法及函数,文中通过代码介绍... 目录前言1. errno 和 perror()示例:2. strerror()示例:3. perror(

Kotlin 作用域函数apply、let、run、with、also使用指南

《Kotlin作用域函数apply、let、run、with、also使用指南》在Kotlin开发中,作用域函数(ScopeFunctions)是一组能让代码更简洁、更函数式的高阶函数,本文将... 目录一、引言:为什么需要作用域函数?二、作用域函China编程数详解1. apply:对象配置的 “流式构建器”最