一、系统初始化
镜像为centos7-1804
三节点:
node1:192.168.1.130
node2:192.168.1.131
node3:192.168.1.132
配置网络ping通外网
关闭防火墙/selinux
修改hosts映射
xshell连接
更换yum源 --备份原来的源
yum install -y wget
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
yum makecache
二、ssh免密连接配置
yum install -y openssh-server
cd ~/.ssh/
ssh-keygen -t rsa
ssh-copy-id -i ~/.ssh/id_rsa.pub root@需要登录的地址 //将密码传到需要登陆的主机
ssh 地址 //测试连接
三、时间同步–三节点执行
yum install -y ntpdate
ntpdate ntp1.aliyun.com //让当前服务器时间同步到ntp1.aliyun.com
hwclock --systohc //修改服务器硬件时间映射到我们的系统时间,防止系统重启后时间还原
date/hwclock //查看时间
四、配置yum源并安装–三节点执行
直接按照 * 执行即可
*第一步
yum install -y yum-utils && sudo yum-config-manager --add-repo https://dl.fedoraproject.org/pub/epel/7/x86_64/ && sudo yum install --nogpgcheck -y epel-release && sudo rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7 && sudo rm /etc/yum.repos.d/dl.fedoraproject.org*
*创建yum源文件
vim /etc/yum.repos.d/ceph.repo //创建repo文件
模板格式
[ceph-noarch]
name=Ceph noarch packages
baseurl=http://download.ceph.com/rpm-{
ceph-release}/{
distro}/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc //格式
*可以直接使用这个
[ceph-noarch]
name=Ceph noarch packages
baseurl=https://download.ceph.com/rpm-infernalis/el7/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc
*做更新操&&安装ceph-deploy
yum update && yum install ceph-deploy
嫌慢可以尝试使用 yum clean all && yum makecache && yum install ceph-deploy
五、创建ceph集群
mkdir /etc/ceph
cd /et/ceph
ceph-deploy new ceph-node1
ceph-deploy install ceph-node1 ceph-node2 ceph-node3
第四步可能报错
[ceph_deploy][ERROR ] RuntimeError: NoSectionError: No section: 'ceph'
解决方法:
yum remove ceph-release
ceph-deploy install ceph-node1 ceph-node2 ceph-node3
检查版本信息
ceph -v
创建第一个ceph monitor
ceph-deploy --overwrite-conf mon create-initial
查看集群状态
ceph -s
六、创建OSD
ceph-deploy disk list ceph-node1 //列出node1上所有可用的磁盘
**创建共享磁盘三节点执行:
[root@ceph-node1/etc/ceph 11:25:22]$ mkdir -p /opt/osd1
[root@ceph-node1/etc/ceph 11:26:51]$ chmod 777 /opt/osd1/
在node1上创建OSD节点
ceph-deploy osd prepare ceph-node1:/opt/osd1/ ceph-node2:/opt/osd2/ ceph-node3:/opt/osd3/
在node1上激活OSD节点
ceph-deploy osd activate ceph-node1:/opt/osd1 ceph-node2:/opt/osd2 ceph-node3:/opt/osd3
查看集群状态health 显示为 HEALTH_OK
[root@ceph-node1/etc/ceph 11:36:25]$ ceph -s
cluster c02dbaf3-4c8b-47c5-8cac-8698bd34ac52
health HEALTH_OK
monmap e1: 1 mons at {
ceph-node1=192.168.1.130:6789/0}
election epoch 3, quorum 0 ceph-node1
osdmap e14: 3 osds: 3 up, 3 in
flags sortbitwise,require_jewel_osds
pgmap v27: 64 pgs, 1 pools, 0 bytes data, 0 objects
20416 MB used, 31765 MB / 52182 MB avail
64 active+clean
开放权限给其他节点,进行灾灭备处理
ceph-deploy admin ceph-node{
1,2,3}
chmod +r /etc/ceph/ceph.client.admin.keyring