Spark项目之环境搭建(单机)二 hive-2.3.3安装

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/lx1309244704/article/details/83862333

上传hive架包,然后解压:

tar -zxf apache-hive-2.3.3-bin.tar.gz hive

重命名 

mv apache-hive-2.3.3-bin hive

将mysql的驱动包加入hive的lib文件下面

进入hive目录下的conf

cd /home/hive/conf/

把初始化的文件 复制一份出来 并且改名

cp hive-env.sh.template hive-env.sh
cp hive-default.xml.template hive-site.xml
cp hive-log4j2.properties.template hive-log4j2.properties
cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties

修改hive-env.sh

#jdk
export JAVA_HOME=/home/jdk
#hadoop
export HADOOP_HOME=/home/hadoop
#hive
export HIVE_HOME=/home/hive

在hdfs 中创建下面的目录 ,并且授权

hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -mkdir -p /user/hive/tmp
hdfs dfs -mkdir -p /user/hive/log
hdfs dfs -chmod -R 777 /user/hive/warehouse
hdfs dfs -chmod -R 777 /user/hive/tmp
hdfs dfs -chmod -R 777 /user/hive/log

修改hive-site.xml 

vi hive-site.xml

将 hive-site.xml 文件中以下几个配置项的值设置成上一步中创建的几个路径。

<property>

    <name>hive.exec.scratchdir</name>

    <value>/user/hive/tmp</value>

</property>

<property>

    <name>hive.metastore.warehouse.dir</name>

    <value>/user/hive/warehouse</value>

</property>

<property>

    <name>hive.querylog.location</name>

    <value>/user/hive/log</value>

</property>

<property>
    <name>hive.exec.scratchdir</name>
    <value>/user/hive/tmp</value>
</property>
<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
</property>
<property>
    <name>hive.querylog.location</name>
    <value>/user/hive/log</value>
</property>

创建tmp文件,然后在配置文件 hive-site.xml 里面

把{system:java.io.tmpdir} 改成 /home/hive/tmp/

把 {system:user.name} 改成 {user.name}

mkdir /home/hive/tmp

 javax.jdo.option.ConnectionUserName:你数据库的名称

 javax.jdo.option.ConnectionPassword:你数据库的密码

<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>root</value>
  </property>

 配置环境变量

 vi /etc/profile
#hive
export HIVE_HOME=/home/hive
export PATH=$HIVE_HOME/bin:$HIVE_HOME/conf:$PATH

然后保存,执行一下命令使其生效

source /etc/profile

从 Hive 2.1 版本开始, 我们需要先运行 schematool 命令来执行初始化操作。

schematool -dbType mysql -initSchema

先启动hadoop,然后输入 hive

hive

项目地址:https://github.com/LX1309244704/sparkDemo

猜你喜欢

转载自blog.csdn.net/lx1309244704/article/details/83862333
今日推荐