使用centos7-1804搭建ceph分布式存储系统并创建OSD

一、系统初始化
镜像为centos7-1804
三节点:
node1:192.168.1.130
node2:192.168.1.131
node3:192.168.1.132
配置网络ping通外网

关闭防火墙/selinux
修改hosts映射

xshell连接
更换yum源 --备份原来的源

yum install -y wget
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
yum makecache

二、ssh免密连接配置

yum install -y openssh-server
cd ~/.ssh/
ssh-keygen -t rsa
ssh-copy-id -i ~/.ssh/id_rsa.pub root@需要登录的地址  //将密码传到需要登陆的主机
ssh 地址 //测试连接

三、时间同步–三节点执行

yum install -y ntpdate
ntpdate ntp1.aliyun.com  //让当前服务器时间同步到ntp1.aliyun.com
hwclock --systohc  //修改服务器硬件时间映射到我们的系统时间,防止系统重启后时间还原
date/hwclock  //查看时间

四、配置yum源并安装–三节点执行
直接按照 * 执行即可
*第一步

yum install -y yum-utils && sudo yum-config-manager --add-repo https://dl.fedoraproject.org/pub/epel/7/x86_64/ && sudo yum install --nogpgcheck -y epel-release && sudo rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7 && sudo rm /etc/yum.repos.d/dl.fedoraproject.org*

*创建yum源文件

vim /etc/yum.repos.d/ceph.repo  //创建repo文件
模板格式
[ceph-noarch]
name=Ceph noarch packages
baseurl=http://download.ceph.com/rpm-{
    
    ceph-release}/{
    
    distro}/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc  //格式

*可以直接使用这个

[ceph-noarch]
name=Ceph noarch packages
baseurl=https://download.ceph.com/rpm-infernalis/el7/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc

*做更新操&&安装ceph-deploy

yum update && yum install ceph-deploy

嫌慢可以尝试使用 yum clean all && yum makecache && yum install ceph-deploy

五、创建ceph集群

mkdir /etc/ceph
cd /et/ceph
ceph-deploy new ceph-node1
ceph-deploy install ceph-node1 ceph-node2 ceph-node3

第四步可能报错

[ceph_deploy][ERROR ] RuntimeError: NoSectionError: No section: 'ceph'

解决方法:

yum remove ceph-release
ceph-deploy install ceph-node1 ceph-node2 ceph-node3

检查版本信息

ceph -v

创建第一个ceph monitor
ceph-deploy --overwrite-conf mon create-initial

查看集群状态

ceph -s

六、创建OSD

ceph-deploy disk list ceph-node1 //列出node1上所有可用的磁盘

**创建共享磁盘三节点执行:

[root@ceph-node1/etc/ceph 11:25:22]$ mkdir -p /opt/osd1
[root@ceph-node1/etc/ceph 11:26:51]$ chmod 777 /opt/osd1/

在node1上创建OSD节点

ceph-deploy osd prepare ceph-node1:/opt/osd1/ ceph-node2:/opt/osd2/ ceph-node3:/opt/osd3/

在node1上激活OSD节点

ceph-deploy osd activate ceph-node1:/opt/osd1 ceph-node2:/opt/osd2 ceph-node3:/opt/osd3

查看集群状态health 显示为 HEALTH_OK

[root@ceph-node1/etc/ceph 11:36:25]$ ceph -s
    cluster c02dbaf3-4c8b-47c5-8cac-8698bd34ac52
     health HEALTH_OK
     monmap e1: 1 mons at {
    
    ceph-node1=192.168.1.130:6789/0}
            election epoch 3, quorum 0 ceph-node1
     osdmap e14: 3 osds: 3 up, 3 in
            flags sortbitwise,require_jewel_osds
      pgmap v27: 64 pgs, 1 pools, 0 bytes data, 0 objects
            20416 MB used, 31765 MB / 52182 MB avail
                  64 active+clean

开放权限给其他节点,进行灾灭备处理

ceph-deploy admin ceph-node{
    
    1,2,3}
chmod +r /etc/ceph/ceph.client.admin.keyring

猜你喜欢

转载自blog.csdn.net/yuwangcom/article/details/117198650
今日推荐