hdfs HA 实验
hdfs 第一次
机器准备 ,机器配合 hostname,ip 作为namenode 的机器 到其他的机器要有 ssh 权限
1、 start zk cluster
主 :
2、 ./hdfs journalnode 这个会启动所有配置的 journalnode ,执行机 要有到 其他 机器的 ssh 的权限 用于存放 namenode 的 内容
3、hdfs zkfc -formatZK
4、hdfs namenode -format
主 start main namenode server
5、 sbin/hadoop-daemon.sh start namenode
备
6、hdfs namenode -bootstrapStandby
7、sbin/hadoop-daemon.sh start namenode
8、sbin/hadoop-daemons.sh start zkfc
这个是决定 哪个是 active的程序
9、sbin/hadoop-daemons.sh start datanode
如果 namenode format 过 要把所有datanode 上的 文件删干净。 要不然启动会报错。
以后 的起停 start-dfs.sh stop -dfs.sh
测试过程发,kill active namenode ,standby 上 sshfence 有权限问题,发现是 linux fuser 没有装。
yum install psmisc
Hbase HA 多起一个 mastr 就OK
hdfs HA 实验
猜你喜欢
转载自lingzhi007.iteye.com/blog/2335625
今日推荐
周排行