K 8 S node not ready問題の位置付けを一度メモする

1430 ワード

昨日の夜、K 8 S環境に対して1回の圧力測定をして、50路は同時に実施して、朝起きて監視カメラを見て、昨夜8時以降、システムがすべてダウンしたようで、masterノードと1つのnodeノードの状態がnot readyになったことを見て、主な位置決め手段は以下の通りです:
1.master kubeletステータスの表示
Systemctl status kubelet状態正常
2.master kube-proxy状態の表示
Systemctl status kube-proxy状態正常
3.master kube-apiserverステータスの表示
Systemctl status kube-apiserver状態正常
4.master kube-schedulerステータスの表示
Systemctl status kube-scheduler状態正常
5.master etcdステータスの表示
Systemctl status etcd状態正常
6.flannelステータスの表示
kubernetes-dashboardでflannelが切れたのを見て、ログを見て次のようにします.
Failed create pod sandbox: rpc error: code = Unknown desc = failed to start sandbox container for pod "kube-flannel-ds-amd64-sc7sr": Error response from daemon: OCI runtime create failed: container_linux.go:348: starting container process caused "process_linux.go:301: running exec setns process for init caused\"signal: broken pipe\"": unknown
この問題は、flannelがネットワークが大きい場合、メモリリソースが不足していることを分析することで、flannelの構成を変更し、メモリを拡大すればよい.
          "resources": {
              "limits": {
                "cpu": "300m",
                "memory": "200Mi"
              },
              "requests": {
                "cpu": "300m",
                "memory": "200Mi"
              }
            },

修正が完了したらdockerを再起動し、元のflannel podを削除すると問題が解決します.