クラウドコンピューティングのkubernetesノードの並べ替え
4588 ワード
1.質問:
両方のノードはReady状態で、node上のdocker/kubelet/flanneld/kube-proxyサービスは正常に動作していますが、podは1台にしかスケジューリングできませんか?
2.現状:
3.既存の問題に基づいて原因を考える
思考1:ずっと前にノード1を配置して考えられない2:ノード1はサービス権限を変更したことがある3:masterは制限をしたことがあって、ノード1にスケジューリングすることを禁止します
4.エラー:
まず、通常のノード2がノード1にないポートを持っているかどうかを見てみましょう.
ノード1にはdnsmasq,すなわち53ポートがなく,dnsmasqもインストールされていないことが分かった.
ノード1に再スケジュールできることが判明しましたが、この時点でノード2も正常であるかどうかは不明です.現在、いくつかのpodsを構築してdashboardを検証して再インストールします.
5.総括して间违いと正确な比较をして、必ずしも核心の配置ではありませんて、周辺の応用が引き起こしたのかもしれなくて、私のこのノード1はずっとスケジューリングすることができなくて、注意していないで、今日注意して、もとはdnsの问题で、このdnsmasqが支えていないで、masterはpodをこの机械にスケジューリングすることができないかもしれません.
両方のノードはReady状態で、node上のdocker/kubelet/flanneld/kube-proxyサービスは正常に動作していますが、podは1台にしかスケジューリングできませんか?
2.現状:
master]# kubectl get nodes -o wide
NAME STATUS ROLES AGE VERSION INTERNAL-IP EXTERNAL-IP OS-IMAGE KERNEL-VERSION CONTAINER-RUNTIME
192.168.89.133 Ready 194d v1.16.2 192.168.89.133 CentOS Linux 7 (Core) 3.10.0-1062.el7.x86_64 docker://1.13.1
192.168.89.134 Ready 193d v1.16.2 192.168.89.134 CentOS Linux 7 (Core) 3.10.0-1062.el7.x86_64 docker://1.13.1
Ready
master]# kubectl get pods -n kube-system -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
kube-dns-6685cc54bd-lb5v4 3/3 Running 0 46m 10.1.84.2 192.168.89.134
pod 2
3.既存の問題に基づいて原因を考える
思考1:ずっと前にノード1を配置して考えられない2:ノード1はサービス権限を変更したことがある3:masterは制限をしたことがあって、ノード1にスケジューリングすることを禁止します
4.エラー:
まず、通常のノード2がノード1にないポートを持っているかどうかを見てみましょう.
2]# ss -anptu | less
udp UNCONN 0 0 192.168.122.1:53 *:* users:(("dnsmasq",pid=2083,fd=5))
udp UNCONN 0 0 *%virbr0:67 *:* users:(("dnsmasq",pid=2083,fd=3))
tcp LISTEN 0 5 192.168.122.1:53 *:* users:(("dnsmasq",pid=2083,fd=6))
ノード1にはdnsmasq,すなわち53ポートがなく,dnsmasqもインストールされていないことが分かった.
1]# yum -y install dnsmasq
1]# dnsmasq
1]# ss -anptu | grep dnsmasq
udp UNCONN 0 0 *:53 *:* users:(("dnsmasq",pid=92515,fd=4))
udp UNCONN 0 0 [::]:53 [::]:* users:(("dnsmasq",pid=92515,fd=6))
tcp LISTEN 0 5 *:53 *:* users:(("dnsmasq",pid=92515,fd=5))
tcp LISTEN 0 5 [::]:53 [::]:* users:(("dnsmasq",pid=92515,fd=7))
master]# kubectl delete -f kubedns-controller.yaml
deployment.apps "kube-dns" deleted
master]# kubectl create -f kubedns-controller.yaml
deployment.apps/kube-dns created
master]# kubectl get pods -n kube-system -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
kube-dns-6685cc54bd-bqjsn 3/3 Running 0 4m22s 10.1.5.2 192.168.89.133
ノード1に再スケジュールできることが判明しましたが、この時点でノード2も正常であるかどうかは不明です.現在、いくつかのpodsを構築してdashboardを検証して再インストールします.
master]# kubectl create -f recommended.yaml
namespace/kubernetes-dashboard created
serviceaccount/kubernetes-dashboard created
service/kubernetes-dashboard created
secret/kubernetes-dashboard-certs created
secret/kubernetes-dashboard-csrf created
secret/kubernetes-dashboard-key-holder created
configmap/kubernetes-dashboard-settings created
role.rbac.authorization.k8s.io/kubernetes-dashboard created
clusterrole.rbac.authorization.k8s.io/kubernetes-dashboard created
rolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
clusterrolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
deployment.apps/kubernetes-dashboard created
service/dashboard-metrics-scraper created
deployment.apps/dashboard-metrics-scraper created
master]# kubectl get pods -n kubernetes-dashboard -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
dashboard-metrics-scraper-5f4dc864c4-rt45p 1/1 Running 0 13s 10.1.84.2 192.168.89.134
kubernetes-dashboard-687bd5c7d7-zrppg 1/1 Running 0 14s 10.1.5.3 192.168.89.133
5.総括して间违いと正确な比较をして、必ずしも核心の配置ではありませんて、周辺の応用が引き起こしたのかもしれなくて、私のこのノード1はずっとスケジューリングすることができなくて、注意していないで、今日注意して、もとはdnsの问题で、このdnsmasqが支えていないで、masterはpodをこの机械にスケジューリングすることができないかもしれません.