クラウドコンピューティングのkubernetesノードの並べ替え


1.質問:
両方のノードはReady状態で、node上のdocker/kubelet/flanneld/kube-proxyサービスは正常に動作していますが、podは1台にしかスケジューリングできませんか?
2.現状:
    
master]# kubectl get nodes -o wide
        NAME             STATUS   ROLES    AGE    VERSION   INTERNAL-IP      EXTERNAL-IP   OS-IMAGE                KERNEL-VERSION           CONTAINER-RUNTIME
        192.168.89.133   Ready       194d   v1.16.2   192.168.89.133           CentOS Linux 7 (Core)   3.10.0-1062.el7.x86_64   docker://1.13.1
        192.168.89.134   Ready       193d   v1.16.2   192.168.89.134           CentOS Linux 7 (Core)   3.10.0-1062.el7.x86_64   docker://1.13.1
          Ready  
master]# kubectl get pods -n kube-system -o wide
        NAME                        READY   STATUS    RESTARTS   AGE   IP          NODE             NOMINATED NODE   READINESS GATES
        kube-dns-6685cc54bd-lb5v4   3/3     Running   0          46m   10.1.84.2   192.168.89.134              
         pod      2

3.既存の問題に基づいて原因を考える
思考1:ずっと前にノード1を配置して考えられない2:ノード1はサービス権限を変更したことがある3:masterは制限をしたことがあって、ノード1にスケジューリングすることを禁止します
4.エラー:
まず、通常のノード2がノード1にないポートを持っているかどうかを見てみましょう.
  2]# ss -anptu | less
        udp    UNCONN     0      0      192.168.122.1:53                    *:*                   users:(("dnsmasq",pid=2083,fd=5))
        udp    UNCONN     0      0      *%virbr0:67                    *:*                   users:(("dnsmasq",pid=2083,fd=3))
        tcp    LISTEN     0      5      192.168.122.1:53                    *:*                   users:(("dnsmasq",pid=2083,fd=6))

ノード1にはdnsmasq,すなわち53ポートがなく,dnsmasqもインストールされていないことが分かった.
  1]# yum -y install dnsmasq
      1]# dnsmasq 
      1]# ss -anptu | grep dnsmasq
        udp    UNCONN     0      0         *:53                    *:*                   users:(("dnsmasq",pid=92515,fd=4))
        udp    UNCONN     0      0      [::]:53                 [::]:*                   users:(("dnsmasq",pid=92515,fd=6))
        tcp    LISTEN     0      5         *:53                    *:*                   users:(("dnsmasq",pid=92515,fd=5))
        tcp    LISTEN     0      5      [::]:53                 [::]:*                   users:(("dnsmasq",pid=92515,fd=7))
    master]# kubectl delete  -f kubedns-controller.yaml
        deployment.apps "kube-dns" deleted
    master]# kubectl create  -f kubedns-controller.yaml
        deployment.apps/kube-dns created
    master]# kubectl get pods -n kube-system -o wide
        NAME                        READY   STATUS    RESTARTS   AGE     IP         NODE             NOMINATED NODE   READINESS GATES
        kube-dns-6685cc54bd-bqjsn   3/3     Running   0          4m22s   10.1.5.2   192.168.89.133              

ノード1に再スケジュールできることが判明しましたが、この時点でノード2も正常であるかどうかは不明です.現在、いくつかのpodsを構築してdashboardを検証して再インストールします.
 master]# kubectl create -f recommended.yaml
        namespace/kubernetes-dashboard created
        serviceaccount/kubernetes-dashboard created
        service/kubernetes-dashboard created
        secret/kubernetes-dashboard-certs created
        secret/kubernetes-dashboard-csrf created
        secret/kubernetes-dashboard-key-holder created
        configmap/kubernetes-dashboard-settings created
        role.rbac.authorization.k8s.io/kubernetes-dashboard created
        clusterrole.rbac.authorization.k8s.io/kubernetes-dashboard created
        rolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
        clusterrolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
        deployment.apps/kubernetes-dashboard created
        service/dashboard-metrics-scraper created
        deployment.apps/dashboard-metrics-scraper created
master]# kubectl get pods -n kubernetes-dashboard -o wide
        NAME                                         READY   STATUS    RESTARTS   AGE   IP          NODE             NOMINATED NODE   READINESS GATES
        dashboard-metrics-scraper-5f4dc864c4-rt45p   1/1     Running   0          13s   10.1.84.2   192.168.89.134              
        kubernetes-dashboard-687bd5c7d7-zrppg        1/1     Running   0          14s   10.1.5.3    192.168.89.133              

5.総括して间违いと正确な比较をして、必ずしも核心の配置ではありませんて、周辺の応用が引き起こしたのかもしれなくて、私のこのノード1はずっとスケジューリングすることができなくて、注意していないで、今日注意して、もとはdnsの问题で、このdnsmasqが支えていないで、masterはpodをこの机械にスケジューリングすることができないかもしれません.