shell_hive

 

(1)获取参数:从shell文件传来参数,调用:$1,$2,$3

    load_date=$1

    clearn_date=`date -d"$2 day ago $load_date" +%Y-%m-%d`

    local_path=$3

(2)执行HIVE: 

hive -e 后面是直接用双引号拼接hivesql语句,然后就可以执行命令

           hive -e "ALTER TABLE dm_kg.dwd_intopieces DROP IF EXISTS PARTITION(etl_date='$clearn_date')"

hive -f 后面指定的是一个文件,然后文件里面直接写sql,就可以运行hive的sql

          hive  -f $local_path/hive.hsql

(3)shell定义变量

   hive -hiveconf day=20151115          -f test.sql

(4) sql文件调用变量

   select * from ods.tracklog where day='${hiveconf:day}' 

(1)获取参数:从shell文件传来参数,调用:$1,$2,$3

    load_date=$1

    clearn_date=`date -d"$2 day ago $load_date" +%Y-%m-%d`

    local_path=$3

(2)执行HIVE: 

hive -e 后面是直接用双引号拼接hivesql语句,然后就可以执行命令

           hive -e "ALTER TABLE dm_kg.dwd_intopieces DROP IF EXISTS PARTITION(etl_date='$clearn_date')"

hive -f 后面指定的是一个文件,然后文件里面直接写sql,就可以运行hive的sql

          hive  -f $local_path/hive.hsql

(3)shell定义变量

   hive -hiveconf day=20151115          -f test.sql

(4) sql文件调用变量

   select * from ods.tracklog where day='${hiveconf:day}' 

猜你喜欢

转载自www.cnblogs.com/hapyygril/p/11785217.html
今日推荐