Tri des commandes communes Ceph (cluster)

Démarrez et arrêtez le processus ceph

systemctl restart | stop | start ceph-mon @ host

systemctl redémarrer | arrêter | démarrer ceph-osd @ id

[root @ ecos75r018-meijia-31-161 ~] # systemctl restart ceph-mon @ ecos75r018-meijia-31-161 [root @ ecos75r018-meijia-31-161 ~] # systemctl status ceph-mon @ ecos75r018-meijia-31 -161 ● [email protected] - Démon de surveillance du cluster Ceph Chargé: chargé (/usr/lib/systemd/system/[email protected]; activé; prédéfini du fournisseur: désactivé) Actif: actif (en cours) depuis le lun.2020-12-14 14:49:37 CST; 14s ago PID principal: 369889 (ceph-mon) CGroup: /system.slice/system-ceph\x2dmon.slice/[email protected] └─369889 / usr / bin / ceph-mon -f --cluster ceph --id ecos75r018-meijia-31-161 --setuser ceph --setgroup cephDec 14 14:49:37 ecos75r018-meijia-31-161 systemd [1]: Démon de surveillance de cluster Ceph lancé.Déc 14 14:49:37 ecos75r018-meijia-31-161 systemd [1]: Démarrage du démon de surveillance du cluster Ceph ...


Vérifier l'état de santé du cluster

santé ceph

[root @ ecos75r018-meijia-31-161 ~] # ceph healthHEALTH_OK


Vérifier les informations sur l'état du cluster

ceph -s

[root@ecos75r018-meijia-31-161 ~]# ceph -s  cluster:    id:     f60e6370-14ff-44cc-b99c-70b17df8549c    health: HEALTH_OK
 services:    mon: 1 daemons, quorum ecos75r018-meijia-31-161 (age 7m)    mgr: ecos75r018-meijia-31-161(active, since 4d)    mds: cephfs_mj:1 {0=ecos75r018-meijia-31-161=up:active}    osd: 3 osds: 3 up (since 4d), 3 in (since 2M)
 task status:    scrub status:        mds.ecos75r018-meijia-31-161: idle
 data:    pools:   4 pools, 240 pgs    objects: 51.56k objects, 199 GiB    usage:   597 GiB used, 2.4 TiB / 3.0 TiB avail    pgs:     240 active+clean


Observez l'état en temps réel du cluster

ceph -w

[root@ecos75r018-meijia-31-161 ~]# ceph -w  cluster:    id:     f60e6370-14ff-44cc-b99c-70b17df8549c    health: HEALTH_OK
 services:    mon: 1 daemons, quorum ecos75r018-meijia-31-161 (age 9m)    mgr: ecos75r018-meijia-31-161(active, since 4d)    mds: cephfs_mj:1 {0=ecos75r018-meijia-31-161=up:active}    osd: 3 osds: 3 up (since 4d), 3 in (since 2M)
 task status:    scrub status:        mds.ecos75r018-meijia-31-161: idle
 data:    pools:   4 pools, 240 pgs    objects: 51.56k objects, 199 GiB    usage:   597 GiB used, 2.4 TiB / 3.0 TiB avail    pgs:     240 active+clean


Observez les détails de l'état du cluster

détail de la santé ceph


Voir l'espace de stockage ceph

ceph df

[root@ecos75r018-meijia-31-161 ~]# ceph dfRAW STORAGE:    CLASS     SIZE        AVAIL       USED        RAW USED     %RAW USED     hdd       3.0 TiB     2.4 TiB     594 GiB      597 GiB         19.43     TOTAL     3.0 TiB     2.4 TiB     594 GiB      597 GiB         19.43 
POOLS:    POOL                ID     STORED      OBJECTS     USED        %USED     MAX AVAIL    rbd_pool             3     197 GiB      51.54k     594 GiB     23.48       645 GiB    ceph_pool            4         0 B           0         0 B         0       645 GiB    cephfs_data          5         0 B           0         0 B         0       645 GiB    cephfs_metadata      6     8.3 KiB          22     1.5 MiB         0       645 GiB

La sortie contient deux dimensions, l'utilisation de la dimension globale (RAW STORAGE) et l'utilisation de la dimension du pool de stockage (POOLS)


Nettoyez les données et désinstallez le package

nom d'hôte de purge ceph-deploy

ceph-deploy nom d'hôte purgedata

Purge supprimera les fichiers de configuration et les fichiers de données générés sous / var / lib / ceph, et désinstalle le progiciel ceph. Pergedata supprimera uniquement les fichiers de configuration et les fichiers de données générés sous / var / lib / ceph.

Cette opération ne nettoie pas le disque osd.


Créer un utilisateur et une clé

ceph auth get-or-create client.admin mds 'allow' osd 'allow' mon 'allow'> /etc/ceph/ceph.client.admin.keyring 

ou

ceph auth get-or-create client.admin mds 'allow' osd 'allow' mon 'allow' -o /etc/ceph/ceph.client.admin.keyring

Ici va créer un utilisateur client.admin


Créer un utilisateur pour osd.0 et créer une clé (fichier d'authentification du cluster)

ceph auth get-or-create osd.0 mon 'allow rwx' osd 'allow' -o / var / lib / ceph / osd / ceph-0 / keyring


Afficher les utilisateurs authentifiés et les clés associées dans le cluster ceph

liste d'authentification ceph

[root@ecos75r018-meijia-31-161 ~]# ceph auth listinstalled auth entries:
mds.ceph-ecos75r018-meijia-31-161  key: AQAcHrtfvD9pHhAAD0MVY0t/W7wyy5YJHGeH6A==  caps: [mds] allow *  caps: [mgr] profile mds  caps: [mon] profile mds  caps: [osd] allow *mds.ecos75r018-meijia-31-161  key: AQDVcLdfIJUAAxAAZl6Exsdh4chF5+Nbti84yA==  caps: [mds] allow  caps: [mon] allow profile mds  caps: [osd] allow rwxosd.0  key: AQDcvTNf9KNpHhAATrdapsznJfcyS0iYLW8bKw==  caps: [mgr] allow profile osd  caps: [mon] allow profile osd  caps: [osd] allow *osd.1  key: AQDtvTNfUd2zGBAAoUkCZfPbo58tUsehEky6HQ==  caps: [mgr] allow profile osd  caps: [mon] allow profile osd  caps: [osd] allow *osd.2  key: AQAuEEZfpD7xKBAAxjbnOEeBbYZ/5HT+1P9aIQ==  caps: [mgr] allow profile osd  caps: [mon] allow profile osd  caps: [osd] allow *client.admin  key: AQDmrzNfNwbqCBAAkWCeTEyKnKH1ZsyYS4KVQw==  caps: [mds] allow *  caps: [mgr] allow *  caps: [mon] allow *  caps: [osd] allow *client.bootstrap-mds  key: AQDmrzNfDizqCBAAECze/Hibrqz2nDwdRZdCUA==  caps: [mon] allow profile bootstrap-mdsclient.bootstrap-mgr  key: AQDmrzNfjUXqCBAA5pscEZ2rf/1F4kAZSSYcZw==  caps: [mon] allow profile bootstrap-mgrclient.bootstrap-osd  key: AQDmrzNfv17qCBAAplYPD3S0fDrKs1AHTinCug==  caps: [mon] allow profile bootstrap-osdclient.bootstrap-rbd  key: AQDmrzNfA3rqCBAACxy1rqD2XPIc/knLqzFqug==  caps: [mon] allow profile bootstrap-rbdclient.bootstrap-rbd-mirror  key: AQDmrzNfXZPqCBAANXqHy2NjPWwt268mU88Czw==  caps: [mon] allow profile bootstrap-rbd-mirrorclient.bootstrap-rgw  key: AQDmrzNfIrDqCBAAX2KRv1DUfAdhWb6E801How==  caps: [mon] allow profile bootstrap-rgwmgr.ecos75r018-meijia-31-161  key: AQC7vTNfoQfjBxAA6kMB3hTOQgxzPdHyRpXPMw==  caps: [mds] allow *  caps: [mon] allow profile mgr  caps: [osd] allow *


Supprimer un utilisateur authentifié dans le cluster

ceph auth del osd.0


Afficher la configuration des paramètres de fonctionnement du cluster

démon ceph {nom-démon} config show | Suite

[root @ ecos75r018-meijia-31-161 ~] # démon ceph mon.ecos75r018-meijia-31-161 config show | plus {"name": "mon.ecos75r018-meijia-31-161", "cluster": "ceph", "admin_socket": "/var/run/ceph/ceph-mon.ecos75r018-meijia-31-161. asok "," admin_socket_mode ":" "," auth_client_required ":" cephx "," auth_cluster_required ":" cephx "," auth_debug ":" false "," auth_mon_ticket_ttl ":" 43200.000000 "," authired_service ", "auth_service_ticket_ttl": "3600.000000", "auth_supported": "", "bdev_aio": "true", "bdev_aio_max_queue_depth": "1024", "


Afficher le répertoire où se trouve le journal ceph

ceph-conf --name mds.ecos75r018-meijia-31-161 --show-config-value log_file

[root @ ecos75r018-meijia-31-161 ~] # ceph-conf --name mds.ecos75r018-meijia-31-161 --show-config-value fichier_log / var / log / ceph / ceph-mds.ecos75r018-meijia -31-161.log


Je suppose que tu aimes

Origine blog.51cto.com/15080020/2654737
conseillé
Classement