(1)获取参数:从shell文件传来参数,调用:$1,$2,$3
load_date=$1
clearn_date=`date -d"$2 day ago $load_date" +%Y-%m-%d`
local_path=$3
(2)执行HIVE:
hive -e 后面是直接用双引号拼接hivesql语句,然后就可以执行命令
hive -e "ALTER TABLE dm_kg.dwd_intopieces DROP IF EXISTS PARTITION(etl_date='$clearn_date')"
hive -f 后面指定的是一个文件,然后文件里面直接写sql,就可以运行hive的sql
hive -f $local_path/hive.hsql
(3)shell定义变量
hive -hiveconf day=20151115 -f test.sql
(4) sql文件调用变量
select * from ods.tracklog where day='${hiveconf:day}'
(1)获取参数:从shell文件传来参数,调用:$1,$2,$3
load_date=$1
clearn_date=`date -d"$2 day ago $load_date" +%Y-%m-%d`
local_path=$3
(2)执行HIVE:
hive -e 后面是直接用双引号拼接hivesql语句,然后就可以执行命令
hive -e "ALTER TABLE dm_kg.dwd_intopieces DROP IF EXISTS PARTITION(etl_date='$clearn_date')"
hive -f 后面指定的是一个文件,然后文件里面直接写sql,就可以运行hive的sql
hive -f $local_path/hive.hsql
(3)shell定义变量
hive -hiveconf day=20151115 -f test.sql
(4) sql文件调用变量
select * from ods.tracklog where day='${hiveconf:day}'