Hbase集群安装
hbase集群安装本身不难,关键是安装时要选对版本,本次hbase安装zookeeper采用hbase自带的即可,大概步骤如下:
- 选择与Hbase匹配的Hadoop版本
- 下载对应的软件包
- 安装hadoop集群
- 安装hbase集群
- 安装phoenix
Hbase与Hadoop版本选择
版本的选择一定要正确,否则安装过程中会遇到很多问题,在hbase官网我们可以看到匹配信息,本次安装选择Hbase-2.0.0(hadoop 选择的是2.7.7版本,因为该版本支持的HBase版本更多,兼容性更好;Hbase选择2.0.0版本时因为写该博客时,PHOENIX对HBase只支持到了2.0.x,我当时用HBase-2.1.0 集成apache-phoenix-5.0.0-Hbase-2.0-bin.tar.gz 死活不成功,改为HBase-2.0.0就可以,至于HBase-2.0.1是否可以没有测过)
JDK版本也有要求,因此我们选择JDK8
安装包下载
JDK8:
HADOOP:
HBase:
JDK安装
参考:Centos下JDK安装
HADOP安装
Hbase安装
集群规划
hadoop-namenode hmaster
hadoop-slave regisonserver
hadoop-slave2 regisonserver
hadoop-slave3 regisonserver
节点间相互添加hosts文件,分发到其它节点,方便通过hostname访问对应的机器
192.168.222.14 hadoop-namenode-yarn
192.168.222.15 hadoop-slave
192.168.222.16 hadoop-slave2
192.168.222.17 hadoop-slave3
安装以hadoop-namenode为例讲解,安装完毕后分发到其它节点即可
免密登录
hadoop-namenode,hadoop-slave,hadoop-slave2,hadoop-slave3 这几台机器间的免密登录
参考:Hadoop-2.7.7完全分布式安装(SSH免密登录部分)
解压
tar -zxvf hbase-2.0.0-bin.tar.gz -C /usr/local
cd /usr/local
mv hbase-2.0.0 hbase
修改conf/hbase-env.sh
export JAVA_HOME=/usr/local/jdk8 # jdk安装路径
export HBASE_MANAGES_ZK=true # 启用hbase自带的zk,zookeeper也可以另外安装,这里不讲解
更多参数调整参考官网:
修改hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop-namenode-yarn:9000/hbase</value>
<description>这里指向的是hadoop集群namenode的地址</description>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/root/zookeeper</value>
<description>zookeeper存储数据的目录</description>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
<description>启用分布式模式</description>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop-namenode-yarn,hadoop-slave,hadoop-slave2</value>
<description>zookeeper所在机器地址,用逗号隔开</description>
</property>
<property>
<name>hbase.master</name>
<value>hadoop-namenode-yarn:60000</value>
<description>hbase集群master节点地址</description>
</property>
<property>
<name>hbase.temp.dir</name>
<value>/home/root/hbase/temp</value>
<description>hbase临时目录</description>
</property>
</configuration>
修改regionservers(该文件记录的是regionserver的地址)(该问价修改只在hmaster节点进行,regionserver节点不修改,在master节点启动集群时,会读取该配置文件,hbase会自动去启动个子节点)
hadoop-slave
hadoop-slave2
hadoop-slave3
通过scp -r 命令复制到其它节点
scp -r hbase root@hadoop-slave:/usr/local/
在master节点启动和停止hbase
cd /usr/local/hbase
./bin/start-hbase.sh #启动hbase
./bin/stop-hbase.sh #停止hbase
启动后可以通过页面访问查看集群情况
http://hadoop-namenode:16010