Sqoop从RDBMS导入数据到Hive表报错“Could not load org.apache.hadoop.hive.conf.HiveConf”解决方法:
1、mysql导入到hive
[donghao@hadoop132 sqoop-1.4.7]$ bin/sqoop import \
--connect jdbc:mysql://hadoop132:3306/company \
--username root \
--password 123456 \
--table staff \
--num-mappers 1 \
--hive-import \
--fields-terminated-by "\t" \
--hive-overwrite \
--hive-table staff_hive
尖叫提示:该过程分为两步
第一步将数据导入到HDFS
第二步将导入到HDFS的数据迁移到Hive仓库,第一步默认的临时目录是/user/用户/表名
2、Sqoop导入hive表报错尖叫提示:Could not load org.apache.hadoop.hive.conf.HiveConf. Make sure HIVE_CONF_DIR is set correctly,设置环境变量解决
##/etc/profile
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop/hadoop-2.7.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
#HIVE_HOME
export HIVE_HOME=/opt/module/hive/apache-hive-1.2.2-bin
export PATH=$PATH:$HIVE_HOME/bin
#此处添加以下内容
##修改环境配置,将hive的lib添加到HADOOP_CLASSPATH中
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HIVE_HOME/lib/*
3、hive不能自动创建表格问题
把hive-site.xml拷贝到sqoop/conf目录下
[donghao@hadoop132 sqoop]$ cp /opt/module/hive/apache-hive-1.2.2-bin/conf/hive-site.xml conf/