Hive是基于Hadoop,我相信你已经安装好Hadoop全分布式集群环境了
安装Hadoop全分布式集群教程
开发包
链接: https://pan.baidu.com/s/12uZYC3VHN0RkF6nlAyQurA 密码: 647f
下载途径不唯一
解压、换名
# 解压
tar -vxf hbase-1.1.2-bin.tar.gz
# 修改名称
mv hbase-1.1.2 hbase
配置环境变量
vim /etc/profile
/software/hbase 是我的开发包位置
# hbase 环境
export HBASE_HOME=/software/hbase
export PATH=$HBASE_HOME/bin:$PATH
source /etc/profile
配置habse-env.sh文件
进入hbase下面的conf文件(下列文件皆是)
vim hbase-env.sh
export JAVA_HOME=/software/java
export HBASE_CLASSPATH=/software/hadoop/etc/hadoop
export HBASE_MANAGES_ZK=false
HBASE_CLASSPATH是hadoop下面的etc下面的hadoop文件夹(看仔细呦)
HBASE_MANAGES_ZK为false代表不使用hbase自带的zookepper(看个人需求使用)
配置hbase-site.xml文件
vim hbase-site.xml
2181是zookepper配置的客户端端口号(此处易错)
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://yun1:9000/hbase</value>
</property>
<property>
<name>hbase.master</name>
<value>yun1</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>yun1,yun2</value>
</property>
<property>
<name>zookeeper.session.timeout</name>
<value>60000000</value>
</property>
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
</configuration>
配置regionservers文件
vim regionservers
yun1
yun2
拷贝环境到集群其他机器
拷贝hbase
scp -r /software/hbase root@yun2:/software/
拷贝配置文件
scp -r /etc/profile root@yun2:/etc/
验证环境
开启zookeeper环境(集群的所有机器都要开启)
zkServer.sh start
开启hadoop环境
start-dfs.sh
start-yarn.sh
开启habse(到hbase的bin目录下)
start-hbase.sh
进入hbase
hbase shell
输入list 如果不报错,环境就配置成功了。
如果报错,输入指令jps查看进程、查看日志检查错误。