第一步下载hive
http://archive.apache.org/dist/hive/
当中找到自己喜欢的版本下载
$ curl -O http://archive.apache.org/dist/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz
$ tar -xzf apache-hive-3.1.2-bin.tar.gz
$ sudo mv apache-hive-3.1.2-bin /srv/
$ sudo ln -s /srv/apache-hive-3.1.2-bin /srv/hive
第二步,建立hive用户目录和默认仓库目录,还有保证hive能写入hadoop的临时数据目录
$ hadoop fs -mkdir /tmp
$ hadoop fs -mkdir -p /user/hive
$ hadoop fs -mkdir /user/hive/warehouse
$ hadoop fs -chmod g+w /tmp
$ hadoop fs -chmod g+w /user/hive/warehouse
$ chmod g+w /var/app/hadoop/data
第三步,配置环境变量
$ sudo su hadoop
$ vim ~/.bashrc
增加如下内容:
export HIVE_HOME=/srv/hive
export PATH=$PATH:$HIVE_HOME/bin
保存后输入以下代码使配置生效
$ source ~/.bashrc
第四步,配置hive metastore
这里使用的使Derby数据库,只适合伪分布式模式
我们配置一下hive-site.xml文件
$ cd $HIVE_HOME/conf
$ sudo cp hive-default.xml.template hive-site.xml
$ vim hive-site.xml
修改下面几个属性:
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:derby:;databaseName=/home/hadoop/metastore_db;create=true</value>
</property>
<property>
<name>hive.exec.scratchdir</name>
<value>/tmp/hive</value>
</property>
<property>
<name>hive.exec.local.scratchdir</name>
<value>/tmp/hive/local</value>
</property>
<property>
<name>hive.downloaded.resources.dir</name>
<value>/tmp/hive/resources</value>
</property>
保存之后尝试启动hive
$ cd $HIVE_HOME
$ bin/hive
如果可以看到
hive>
表示配置成功,如果报错了。请检查配置。