ceph daemon镜像容器化ceph问题

问题1

以docker容器启动ceph集群,比之kubernetes缺少故障修复能力。

问题2

创建PVC会自动创建PV。可能报错kube-controller-manager找不到rbd,检查rbd-provisioner相关是否创建成功。

问题3

创建pod报错。这是由于调度到的这个节点上ceph-common库没有安装(或者版本太旧)导致。安装(或升级)该库即可
image

问题4

image
image

问题5

ceph集群创建成功(包括mon,osd),当重启osd容器后,osd镜像会重启创建osd的脚本,重新生成osd来顶替之前的。之前的osd会变为down状态不会自动删除

  • 重启osd之前
    image

  • 重启osd之后
    image

  • 尝试删除down掉的osd

    • 删除前
      image
    • 删除后
      image
  • 删除掉所有down掉的osd
    image

    • 再重启osd容器,显示如下状态。过一会osd容器会自动关闭
      image
  • 多次重启osd容器会逐步将删除的容器状态DNE变为down。之后自动关闭
    image
    image

  • 直到将所有osd状态变为down,才会生成新的osd并且容器不会自动关闭
    image

  • 删除mon、osd容器,并且删除使用过的磁盘分区
    image

  • 再次创建mon节点(不创建osd),显示的状态跟最近一次的集群状态相同,osd存在且数目不变
    image

猜你喜欢

转载自blog.csdn.net/qq_42747099/article/details/88912265