K8S кластер вопросов развертывания отделки 1

1, имя хоста «мастер» не может быть достигнуто
никакого увеличения разрешенное в хозяине

2, локон -ssl HTTP: // локальный: 10248 / healthz
завиток: (7) . Подключение Ошибка локального хоста: 10248; локальный не отклоняется в разборе подключения хоста

3, Ошибка при запуске демона: SELinux не поддерживается с overlay2 драйвером графа на этом ядре. Либо загрузиться в новое ядро или ... недееспособных = ложь)
ВИМ / и т.д. / ssconfig / Докер --selinux с поддержкой = False

4, мост-NF-Call- IPTables отверждающих проблемы:
# Ниже расположены на мосте: net.bridge.bridge-NF-вызовы-ip6tables = 0 net.bridge.bridge-NF-Call-IPTables = 1 # средство сетевой уровень фильтруется net.bridge.bridge-NF-вызовы-arptables во время пересылки пакетов вперед правила IPTables = 0

5, на сервере в месте соединения с локального хоста :? 8080 было отказано - Укажите DID вы прямо в порту хоста или
Невозможно распознать «Kube-flannel.yml»: ГЭТ HTTP: // локальный: 8080 / API таймаут = 32S: Dial ТСР? [:: 1]: 8080: подключения : подключение отказано , если выполняется под суперпользователя, то ошибка не будет MkDir -p $ HOME / .kube Судо ф -i /etc/kubernetes/admin.conf $ HOME / .kube / конфигурации Судо Чаун ( я d u ) : (С и): (Указанный выше -g ид) $ Начального / .kube / конфигурации
### 6, ошибка: Невозможно распознать «mycronjob.yml»: НЕТ Спичку для добросердечного «CronJob» в версии «ПАРТИЯ / v2alpha1»
в Кубэ-apiserver.yaml файл добавить: - --runtime-конфиг = партия /а затем перезапуск службы kubelet, его

7, Контейнер выполнения сеть не готова: NetworkReady = ложные причины: NetworkPluginNotReady сообщение: Докер: сетевой модуль не готов: CNI конфигурации неинициализированным Невозможно обновить CNI конфигурации: сети не найдены в /etc/cni/net.d Не удалось получить системный контейнер статистика для «/system.slice/kubelet.service»: не удалось получить статистику для контрольной группы «/system.slice/kubelet.service»: не удалось получить контейнер информацию для «/system.slice/kubelet.service»: неизвестный контейнер « /system.slice/kubelet.service»

docker pull quay.io/coreos/flannel:v0.10.0-amd64 
mkdir -p /etc/cni/net.d/
cat <<EOF> /etc/cni/net.d/10-flannel.conf
{"name":"cbr0","type":"flannel","delegate": {"isDefaultGateway": true}}
EOF
mkdir /usr/share/oci-umount/oci-umount.d -p
mkdir /run/flannel/
cat <<EOF> /run/flannel/subnet.env
FLANNEL_NETWORK=172.100.0.0/16
FLANNEL_SUBNET=172.100.1.0/24
FLANNEL_MTU=1450
FLANNEL_IPMASQ=true
EOF
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.9.1/Documentation/kube-flannel.yml

8, Невозможно подключиться к серверу: x509: сертификат , подписанный неизвестным органом (возможно , из - за «крипто / RSA: ошибка проверки» при попытке проверить сертификат власти кандидата «kubernetes»)
экспорт KUBECONFIG = / и т.д. / kubernetes / kubelet.conf

9, Не удалось получить статистику системы контейнера для «/system.slice/docker.service»: не удалось получить статистику для контрольной группы «/system.slice/docker.service»: не удалось получить информацию для контейнера «/system.slice/docker .Service»: неизвестный контейнер„/system.slice/docker.service“
ВИМ / и т.д. / sysconfig / kubelet --runtime-контрольные группы = / Systemd / system.slice --kubelet-контрольные группы = / Systemd / system.slice systemctl рестарт kubelet

Возможно означает Флага --cgroup-водитель --kubelet-контрольные группы диск был отключен, этот параметр должен указать файл конфигурации, чтобы настроить конфигурацию kubelet

10, вызов HTTP равных 'завиток -ssl HTTP: // локальный: 10255 / healthz' произошла ошибка: Get HTTP: // локальный: 10255 / healthz: наберите TCP 127.0.0.1:10255: getsockopt: соединение отклонено.
ВИМ /etc/systemd/system/kubelet.service.d/10-kubeadm.conf Environment = «KUBELET_SYSTEM_PODS_ARGS = -pod-манифест-путь = / и т.д. / kubernetes / манифесты --allow защищенностью = истинный --fail-swap- на = ложь»

### 11, не удалось запустить Kubelet: не удалось создать kubelet: miscon фигурации: kubelet водитель контрольная группа: «Systemd» отличается от водителя докер контрольной группы: «cgroupfs»
kubelet: Environment = «KUBELET_CGROUP_ARGS = -cgroup водитель = Systemd» Докер : VI /lib/systemd/system/docker.service -exec-неавтоматического native.cgroupdriver = Systemd

12, [ОШИБКА CRI]: не удалось проверить , если контейнер во время выполнения на «/var/run/dockershim.sock» работает: статус выхода 1
гт -f / USR / бен / crictl

13, Предупреждение FailedScheduling 2s (x7 над 33s) по умолчанию-планировщик 0/4 узлов доступны :. 4 узла (s) не соответствует селектору узлов
Если указанная метка может не совпадать на все узлы, создать Pod не удается, Совет Вы не можете запланировать:

14, после того, как истечет маркер kubeadm сгенерированный, добавлять узлы в кластер

kubeadm token create

openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | 
openssl dgst -sha256 -hex | sed 's/^.* //'

kubeadm join --token aa78f6.8b4cafc8ed26c34f --discovery-token-ca-cert-hash sha256:0fd95a9bc67a7bf0ef42da968a0d55d92e52898ec37c971bd77ee501d845b538  172.16.6.79:6443 --skip-preflight-checks

15, ### systemctl статус kubelet сигнализация
cni.go: 171] Невозможно обновить CNI конфигурацию: Нет сеть найдена в /etc/cni/net.d
29 мая 6:30:28 в FNODE kubelet [4136]: E0529 06:30 : 28.935309 4136 kubelet.go: 2130] Контейнер выполнение сети не готовы: NetworkReady = ложные причины: NetworkPluginNotReady сообщения: докер: сетевой модуль не готов: CNI конфигурация неинициализированный
удалить /etc/systemd/system/kubelet.service.d/10- kubeadm.conf из KUBELET_NETWORK_ARGS, а затем перезапустить службу kubelet временного решения. Бесполезная
основная причина заключается в отсутствии: k8s.gcr.io/pause-amd64:3.1

16 Удаление сети фланели:

ifconfig cni0 down
ifconfig flannel.1 down
ifconfig del flannel.1
ifconfig del cni0

ip link del flannel.1
ip link del cni0

yum install bridge-utils
brctl delbr  flannel.1
brctl delbr cni0
rm -rf /var/lib/cni/flannel/* && rm -rf /var/lib/cni/networks/cbr0/* && ip link delete cni0 &&  rm -rf /var/lib/cni/network/cni0/*

17, E0906 15: 10: 55.415662 1 leaderelection.go: 234] Ошибка при получении ресурсов блокировки по умолчанию / ceph.com-RBD: конечные точки "ceph.com-РДО" запрещено: Пользователь "Система: ServiceAccount: по умолчанию: RBD-Provisioner" Endpoints не в в ГЭТ мОЖЕТЕ пространства имен « по умолчанию»
`Добавьте следующее в этом пункте (будет повторно использовать ресурсы) kubectl применять -f цеф / РосБР / развернуть / RBAC / clusterrole.yaml

apiGroups: [ ""]
ресурсы: [ «конечные точки»]
глаголы: [ «получить», «список», «часы», «создать», «обновление», «патч»] `

18, фланель указать устройство сетевой карты:

  • -iface = eth0

21, Не создавать стручок песочницу: ошибка RPC: код = Unknown убывание = [не удалось установить песочницу контейнер «957541888b8a0e5b9ad65da932f688eb02cc182808e10d1a89a6e8db2132c253» сеть стручок «coredns-7655b945bc-6hgj9»: NetworkPlugin CNI не удалось установить стручок «coredns-7655b945bc-6hgj9_kube- система»сети: не удалось найти плагин„обратную петлю“в пути [/ Opt / CNI / бен], не удалось очистить песочницу контейнер„957541888b8a0e5b9ad65da932f688eb02cc182808e10d1a89a6e8db2132c253“сети для стручок„coredns-7655b945bc-6hgj9“: NetworkPlugin CNI не сумели демонтажа стручок«coredns -7655b945bc-6hgj9_kube-система»сети: не удалось найти плагин„Portmap“в пути [/ Opt / CNI / бен]]
https://kubernetes.io/docs/setup/independent/troubleshooting-kubeadm/#coredns-pods- у-crashloopbackoff или ошибочное состояние
Если ваш провайдер сети не поддерживает Portmap CNI плагинов, возможно, потребуется использовать услуги или функции NodePort HostNetwork = TRUE.

22, вопрос: kubelet система , устанавливаемая зарезервированные (800м), Кубэ -reserved (500 м), выселений жесткий (800), на самом деле фактический объем доступной памяти кластера общий объем памяти -800m-800м-500м, но все - таки нашел , что система запуска уровень убить процесс,
расследование: использование использование памяти сверху см сверху нашло etcd службу использует память 500M или более, kubelet использования 20ой памяти, цеф общего потребление памяти составляет более 200 м, уже добавить до 90ого, и это накладные расходы вне K8S, был полностью из памяти , зарезервированной системой, поэтому система может вызвать уровень убийства,

23, как получить доступ к API-сервер?
Используйте kubectl прокси - функция

24, с помощью SVC конечных точек прокси - кластера внешних служб, часто отсутствует проблема конечных точек
решать: ярлык удалить service.spec.selecter просто отлично.

25 после того , как вопрос о кластерной лавине процесса, узел узла иногда noreading состояние
исследования: использование процессора слишком высока на этом узле узла.

1、没有触发node节点上的cpuPressure的状态,判断出来不是k8s所管理的cpu占用过高的问题,应该是system、kube组件预留的cpu高导致的。
2、查看cpu和mem的cgroup分组,发现kubelet,都在system.sliec下面,因此判断kube预留资源没有生效导致的。
3、
--enforce-node-allocatable=pods,kube-reserved,system-reserved  #采用硬限制,超出限制就oom
--system-reserved-cgroup=/system.slice  #指定系统reserved-cgroup对那些cgroup限制。
--kube-reserved-cgroup=/system.slice/kubelet.service #指定kube-reserved-cgroup对那些服务的cgroup进行限制
--system-reserved=memory=1Gi,cpu=500m  
--kube-reserved=memory=500Mi,cpu=500m,ephemeral-storage=10Gi 

26, [etcd] Проверка Etcd кластер здоровье
etcd кластер не является здоровым: контекст срок превышен

Опубликовано 33 оригинальные статьи · вона похвала 0 · Просмотров 3935

рекомендация

отblog.csdn.net/erhaiou2008/article/details/103885234