Sqoop RDBMS到Hive报错:Could not load org.apache.hadoop.hive.conf.HiveConf的解决方法

Sqoop从RDBMS导入数据到Hive表报错“Could not load org.apache.hadoop.hive.conf.HiveConf”解决方法:

1、mysql导入到hive

[donghao@hadoop132 sqoop-1.4.7]$ bin/sqoop import \
--connect jdbc:mysql://hadoop132:3306/company \
--username root \
--password 123456 \
--table staff \
--num-mappers 1 \
--hive-import \
--fields-terminated-by "\t" \
--hive-overwrite \
--hive-table staff_hive

尖叫提示:该过程分为两步
第一步将数据导入到HDFS
第二步将导入到HDFS的数据迁移到Hive仓库,第一步默认的临时目录是/user/用户/表名

2、Sqoop导入hive表报错尖叫提示:Could not load org.apache.hadoop.hive.conf.HiveConf. Make sure HIVE_CONF_DIR is set correctly,设置环境变量解决

##/etc/profile

#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop/hadoop-2.7.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

#HIVE_HOME
export HIVE_HOME=/opt/module/hive/apache-hive-1.2.2-bin
export PATH=$PATH:$HIVE_HOME/bin

#此处添加以下内容
##修改环境配置,将hive的lib添加到HADOOP_CLASSPATH中
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HIVE_HOME/lib/*

3、hive不能自动创建表格问题

把hive-site.xml拷贝到sqoop/conf目录下

[donghao@hadoop132 sqoop]$ cp /opt/module/hive/apache-hive-1.2.2-bin/conf/hive-site.xml conf/

猜你喜欢

转载自blog.csdn.net/dh12313012/article/details/88012457