Linux运维之RHCS套件(红帽6的高可用)

Linux运维之RHCS套件(红帽6的高可用)

  • 什么是RHCS套件

RHCS即 RedHat Cluster Suite ,中文意思即红帽集群套件。
红帽集群套件(RedHat Cluter Suite, RHCS)是一套综合的软件组件,可以通过在部署时采用不同的配置,以满足对高可用性,负载均衡,可扩展性,文件共享和节约成本的需要。

原理图:
在这里插入图片描述

  • RHCS高可用的搭建

搭建环境准备:
三台rhel6.5版本的虚拟机,关闭iptables,且selinux为disable
server1:ip为172.25.11.1 作为管理节点和HA节点
server2:ip为172.25.11.2 作为HA节点
server3:ip为172.25.11.3 作为iscsi共享磁盘

为server1配置高可用yum源,并发送给server2、server3

cd /etc/yum.repos.d
vim rhel-source.repo
[rhel6.5]
name=rhel6.5
baseurl=http://172.25.11.250/rhel6.5
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[HighAvailability]
name=HighAvailability
baseurl=http://172.25.11.250/rhel6.5/HighAvailability
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[LoadBalancer]
name=LoadBalancer
baseurl=http://172.25.11.250/rhel6.5/LoadBalancer
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[ResilientStorage]
name=ResilientStorage
baseurl=http://172.25.11.250/rhel6.5/ResilientStorage
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[ScalableFileSystem]
name=ScalableFileSystem
baseurl=http://172.25.11.250/rhel6.5/ScalableFileSystem
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

yum repolist 

在这里插入图片描述
在这里插入图片描述
在server1上安装ricci、luci:

yum install ricci luci -y
id ricci
passwd ricci

/etc/init.d/ricci start
/etc/init.d/luci start
chkconfig ricci on
chkconfig luci on

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在server2上安装ricci:

yum install ricci -y
id ricci
passwd ricci

/etc/init.d/ricci start
chkconfig ricci on

在这里插入图片描述
在这里插入图片描述
测试:
真机打开浏览器输入https://172.25.11.1:8084
注意要添加安全证书
在这里插入图片描述
输入root用户密码登陆:
在这里插入图片描述
添加server1,server1到集群
注意要设定本地解析,否则速度会很慢
在这里插入图片描述
点击Manage Clusters—>create
在这里插入图片描述
等待~~添加成功
添加成功后,server1和server2会重启
在这里插入图片描述
查看是否添加成功和集群状态

cat /etc/cluster/cluster.conf
clustat

在这里插入图片描述

  • 为RHCS高可用添加fence(栅)

什么是fence?
FENCE设备是RHCS集群中必不可少的一个组成部分,通过FENCE设备可以避免因出现不可预知的情况而造成的“脑裂”现象,FENCE设备的出现,就是为了解决类似这些问题,Fence设备主要就是通过服务器或存储本身的硬件管理接口,或者外部电源管理设备,来对服务器或存储直接发出硬件管理指令, 将服务器重启或关机,或者与网络断开连接。

Fence的工作原理:
当意外原因导致主机异常或宕机时,备用机会首先调用fence设备,然后通过fence设备将异常的主机重启或从网络上隔离,释放异常主机占据的资源,当隔离操作成功后,返回信息给备用机,备用机在接到信息后,开始接管主机的服务和资源。

添加fence步骤:
在真机即物理机上:

扫描二维码关注公众号,回复: 6774399 查看本文章
yum search fence
yum install -y fence-virtd.x86_64 fence-virtd-libvirt.x86_64 fence-virtd-multicast.x86_64

fence_virtd -c  ##配置fence

Interface [virbr0]: br0		##设备选择br0,其他用默认

#生成fence_xvm.key
mkdir /etc/cluster
dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=128 count=1

把fence_xvm.key分发到HA节点,通过这个key来管理节点
scp fence_xvm.key root@server1:/etc/cluster/
scp fence_xvm.key root@server2:/etc/cluster/

systemctl start fence_virtd.service

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在web里添加fence
Fence Devices---->Add---->submit
在这里插入图片描述分别为server1和server2添加fence
在这里插入图片描述
此处Domain为虚拟机MAC地址。可打开虚拟机管理器查询
在这里插入图片描述
在这里插入图片描述
server2执行相同操作,添加完毕
在这里插入图片描述

测试:
在server1上使用fence关掉server2
发现server2被重启

fence_node server2
netstat -antulp | grep 1229 ##udp 1229端口

在这里插入图片描述
在这里插入图片描述

  • 添加httpd资源

添加失败回切和优先级:
Failover --> Add --> webfail --> Prioritized --> Restricted --> No Failback(此选项选中,failover的主机在再次正常时会按优先级大小回切,否则不会)
server2优先级为1,server5优先级为10,数字越小,优先级越高
在这里插入图片描述
添加vip资源:
Resources --> Add --> IP Address
172.25.11.100
24
Monitor Link(选中)
Number of … 5
在这里插入图片描述
再添加服务
Resources --> Add --> Script
Name : httpd
Full Path to Script File : /etc/init.d/httpd
两个节点都安装并启动httpd,写默认发布页面

在这里插入图片描述

添加服务组到集群:
Service Groups --> Add
Service Name : apache
Automatically Start This Service : 选中
Run Exclusive : 运行独占(先选中)
Failover Domain : webfail
在这里插入图片描述
然后添加资源
Add Resource --> 172.25.0.100/24 --> Script —>submit ##添加IP和启动脚本
在这里插入图片描述
在这里插入图片描述
测试:
勾选apache并点击上方start
在这里插入图片描述
在真机crul 172.25.11.100
发现默认访问到server2
在这里插入图片描述
使server2脑裂,测试fence:

echo c > /proc/sysrq-trigger
ip link set dowm eth0 (使网络挂掉)

在这里插入图片描述
发现服务由于server被重启暂时回到server1上
在这里插入图片描述
在web页面点击左边第一个按钮即start
在这里插入图片描述
资源又回到了server2上
并且访问正常
在这里插入图片描述
在这里插入图片描述

  • 添加iscsi网络共享磁盘

将server3作为iscsi共享存储
并再添加一块20G虚拟磁盘

yum install -y scsi-*

在这里插入图片描述
在这里插入图片描述
查看新添加磁盘信息

fdisk -l
fdisk /dev/vda
p 1 回车 回车 wq

在这里插入图片描述
在这里插入图片描述
配置server3的存储

vim /etc/tgt/targets.conf
38 <target iqn.2019-06.com.example:server.target1>
39     backing-store /dev/vda1	
       initiator-address 172.25.11.1
       initiator-address 172.25.11.2
40 </target>

/etc/init.d/tgtd start

tgt-admin -s		##查看存储信息
ps ax			##看到有2个tgtd进程(如果有4个,就是错误的)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在server1和server2两个ha节点上:
安装客户端

yum install -y iscsi-*

在这里插入图片描述
在HA节点上发现并登陆共享存储:

iscsiadm -m discovery -t st -p 172.25.11.3
iscsiadm -m node -l
fdisk -l 
fdisk -cu /dev/sdb   ##只分一个区,方便在分区表被破坏的时候恢复
pratprobe
fdisk /dev/sdb

在这里插入图片描述
在这里插入图片描述
同步过后在server2查看进程

partprobe
cat /proc/partitions

在这里插入图片描述

mkfs.ext4 /dev/sdb1
fdisk /dev/sdb
t 8e wq
partprobe

在这里插入图片描述
在这里插入图片描述
在server1创建逻辑卷

pvcreate /dev/sdb1
vgcreate chenchen /dev/sdb1
lvcreate -L 4G -n cc chenchen
partprobe

在这里插入图片描述
在server2同步并查看

partprobe
lvs
pvs
vgs
mkfs.ext4 /dev/chenchen/cc

在这里插入图片描述
在这里插入图片描述
在web添加webdata(文件系统)
现在server1server2关闭apache

clusvcadm -d apache

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
点击Service Groups,删除原来的添加,重新配置,这次的添加顺序是IP
Address —-> Filesystem —-> Script(因为服务开启的顺序就是先分配VIP,然后开启存储,然后再是服务)

测试:
启动集群服务,发现server2自动挂载
在这里插入图片描述
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_44828950/article/details/93386786