原文链接:zookeeper完全分布式集群部署
目录
IP以及主机名
角色 | 主机名 | IP地址 |
---|---|---|
Zkserver1 | Master | 192.168.222.201 |
Zkserver2 | Slave1 | 192.168.222.202 |
Zkserver3 | Slave2 | 192.168.222.203 |
1.修改hosts映射、修改主机名
2.配置java环境、关闭防火墙以及selinux
以上步骤查看:hadoop完全分布式搭建3台主机(详细)
3.上传并解压zookeeper包
tar -zxvf ./soft/zookeeper-3.4.5.tar.gz
4.配置环境变量
export JAVA_HOME=/simple/jdk1.7.0_79
export ZOOKEEPER_HOME=/simple/zookeeper-3.4.5
export PATH=$ZOOKEEPER_HOME/bin:$PATH
export PATH=$JAVA_HOME/bin:$PATH
4.1立即生效
source /etc/profile
5.修改配置文件
在Zookeeper解压包下的conf
目录下,有一个示例配置文件zoo_sample.cfg
,我们可以复制一份,重命名为zoo.cfg
,并在zoo.cfg
文件中添加我们集群的相关配置信息。
cp zoo_sample.cfg zoo.cfg
vi zoo.cfg
配置文件示例:
tickTime=2000
initLimit=10
syncLimit=5
clientPort=2181
dataDir=/simple/zookeeper-3.4.5/data
dataLogDir=/simple/zookeeper-3.4.5/dataLog
server.1=192.168.222.201:2888:3888
server.2=192.168.222.202:2888:3888
server.3=192.168.222.203:2888:3888
Zookeeper集群中,每一个节点都需创建data目录、dataLog目录以及myid文件(data下):
myid文件里的内容(三台)分别为:1、2、3
mkdir data
mkdir dataLog
vi myid
[root@master ~]# cat /simple/zookeeper-3.4.5/data/myid
1
说明:配置文件中的server.X,这个X值即为集群机器中myid文件中的值;后面的IP即为集群机器的IP,后面的两个端口号依次为集群中节点交换信息的端口、重新选举Leader的通信端口
至此,配置就算基本完成了,所有Zookeeper集群中的节点机器
除了myid文件中的值不一样外,其它配置均一样,所以将文件传到其他机子
6.将文件传到其他两台机子
scp -r /simple/zookeeper-3.4.5/ slave1:/simple/
scp -r /simple/zookeeper-3.4.5/ slave2:/simple/
scp /etc/profile slave1:/etc/profile
scp /etc/profile slave2:/etc/profile
7.启动集群
Zookeeper集群的启动,需要进入各个节点单独启动。
进入Zookeeper的/bin目录下执行命令
./zkServer.sh start
即可启动服务。
然后执行命令
./zkServer.sh status
示例:slave2是leader
[root@slave2 bin]# ./zkServer.sh status
JMX enabled by default
Using config: /simple/zookeeper-3.4.5/bin/ ../conf/zoo.cfg
Mode: leader
查看服务状态并可以看到当前节点是leader(主)节点还是follower(从)节点。
如果启动失败,可以查看/bin目录下启动生成的日志文件zookeeper.out,看失败的原因是什么,然后调整,(常见的失败原因有:防火墙未关闭、配置文件未创建、数据目录未创建、myid文件未创建或创建有误等)