k8s启动Pod遇到CrashLoopBackOff的解决方法

一直正常运的k8s,集群节点没问题,但启动pod出现异常
等待中: CrashLoopBackOff

13303086-9cd1e967f8321473.png

1.登陆此节点主机使用kubctl获取pod状态

kubectl get pod

13303086-b680a6e019525c1a.png

查询异常pod名称为:elkhost-944bcbcd4-8n9nj
2.查看此状态pod详细情况

kubectl describe pod elkhost-944bcbcd4-8n9nj
13303086-e5a7dcfc0adebc0f.png

3.查看此pod日志

 kubectl logs elkhost-944bcbcd4-8n9nj
13303086-0d7dbb9819332d46.png
[1] bootstrap checks failed
[1]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

错误原因在这里 经查elasticsearch运行要求:
vm.max_map_count内核参数必需大于262114,确认系统调过 $sysctl -w vm.max_map_count=262144
这里注意的问题是 上述属于临时性调整,主机重启后又恢复到默认状态
记久性修改 vi /etc/sysconfig 加入:

vm.max_map_count=262144

保存/etc/sysctl.conf,重新启动服务器以应用更改,或执行:sysctl -p以应用更改而不重新启动.他们将在重新启动时永久保持.
重启pod 进入控制台 查询状态 恢复


13303086-0eadf16ab4af9595.png

4.总结 出现故障可能很多种 但要学查看日志 排查具体原因及应用所在

转载于:https://www.jianshu.com/p/bcc05427990d

猜你喜欢

转载自blog.csdn.net/weixin_33813128/article/details/91229180