hive编写创建udf函数

创建自定义函数的步骤

1.创建java类 extends org.apache.hadoop.hive.sql.exec.UDF

2.需要实现evalute函数,evalute函数支持重载

3.把程序打包放在机器上

4.进入hive客户端,上传jar包到hdfs

5.创建duf函数

create【temporary】 function 【function_name】as '【class_path】' using jar '【jar_hdfs_path】'

需要注意的是hive需要指定schema,并且这个udf函数不能被sparkSQL使用,如果sparksql需要使用的话可以在sparksql的代买里先注册再使用。

猜你喜欢

转载自blog.csdn.net/wx740851326/article/details/80893004