您好,登錄后才能下訂單哦!
小編給大家分享一下Kubernetes集群多Master容錯配置技巧有哪些,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
修改兩處:
修改其主服務地址,指向與主節點一致的虛擬IP(設置參考《Keepalived快速使用(Ubuntu18.04)》)。
修改etcd服務的地址和證書文件目錄。
開始編輯:
sudo nano /etc/kubernetes/manifests/kube-apiserver.yaml
最后的kube-apiserver.yaml文件如下:
# /etc/kubernetes/manifests/kube-apiserver.yaml apiVersion: v1 kind: Pod metadata: annotations: scheduler.alpha.kubernetes.io/critical-pod: "" creationTimestamp: null labels: component: kube-apiserver tier: control-plane name: kube-apiserver namespace: kube-system spec: containers: - command: - kube-apiserver - --authorization-mode=Node,RBAC - --advertise-address=10.1.1.199 - --allow-privileged=true - --client-ca-file=/etc/kubernetes/pki/ca.crt - --enable-admission-plugins=NodeRestriction - --enable-bootstrap-token-auth=true # - --etcd-cafile=/etc/kubernetes/pki/etcd/ca.crt # - --etcd-certfile=/etc/kubernetes/pki/apiserver-etcd-client.crt # - --etcd-keyfile=/etc/kubernetes/pki/apiserver-etcd-client.key # - --etcd-servers=https://127.0.0.1:2379 - --etcd-cafile=/etc/kubernetes/pki/etcd-certs/ca.pem - --etcd-certfile=/etc/kubernetes/pki/etcd-certs/client.pem - --etcd-keyfile=/etc/kubernetes/pki/etcd-certs/client-key.pem - --etcd-servers=https://10.1.1.201:2379 - --insecure-port=0 - --kubelet-client-certificate=/etc/kubernetes/pki/apiserver-kubelet-client.crt - --kubelet-client-key=/etc/kubernetes/pki/apiserver-kubelet-client.key - --kubelet-preferred-address-types=InternalIP,ExternalIP,Hostname - --proxy-client-cert-file=/etc/kubernetes/pki/front-proxy-client.crt - --proxy-client-key-file=/etc/kubernetes/pki/front-proxy-client.key - --requestheader-allowed-names=front-proxy-client - --requestheader-client-ca-file=/etc/kubernetes/pki/front-proxy-ca.crt - --requestheader-extra-headers-prefix=X-Remote-Extra- - --requestheader-group-headers=X-Remote-Group - --requestheader-username-headers=X-Remote-User - --secure-port=6443 - --service-account-key-file=/etc/kubernetes/pki/sa.pub - --service-cluster-ip-range=10.96.0.0/12 - --tls-cert-file=/etc/kubernetes/pki/apiserver.crt - --tls-private-key-file=/etc/kubernetes/pki/apiserver.key image: k8s.gcr.io/kube-apiserver:v1.13.1 imagePullPolicy: IfNotPresent livenessProbe: failureThreshold: 8 httpGet: host: 10.1.1.199 path: /healthz port: 6443 scheme: HTTPS initialDelaySeconds: 15 timeoutSeconds: 15 name: kube-apiserver resources: requests: cpu: 250m volumeMounts: - mountPath: /etc/ssl/certs name: ca-certs readOnly: true - mountPath: /etc/ca-certificates name: etc-ca-certificates readOnly: true - mountPath: /etc/pki name: etc-pki readOnly: true - mountPath: /etc/kubernetes/pki name: k8s-certs readOnly: true - mountPath: /usr/local/share/ca-certificates name: usr-local-share-ca-certificates readOnly: true - mountPath: /usr/share/ca-certificates name: usr-share-ca-certificates readOnly: true hostNetwork: true priorityClassName: system-cluster-critical volumes: - hostPath: path: /etc/ssl/certs type: DirectoryOrCreate name: ca-certs - hostPath: path: /etc/ca-certificates type: DirectoryOrCreate name: etc-ca-certificates - hostPath: path: /etc/pki type: DirectoryOrCreate name: etc-pki - hostPath: path: /etc/kubernetes/pki type: DirectoryOrCreate name: k8s-certs - hostPath: path: /usr/local/share/ca-certificates type: DirectoryOrCreate name: usr-local-share-ca-certificates - hostPath: path: /usr/share/ca-certificates type: DirectoryOrCreate name: usr-share-ca-certificates status: {}
注意
這里主要修改了--advertise-address=10.1.1.199和--etcd-servers=https://10.1.1.201:2379。
二者的IP地址不一樣,199為虛擬IP,201為當前節點的etcd服務地址。
kube-control-manager和kube-schedule實例通過訪問apiserver服務接口來獲取集群狀態和執行集群內部管理、維護工作,支持多運行實例的并發訪問,對apiserver加鎖來選擇主控制器。
kube-control-manager主要負責節點狀態的一致性保障,包括/etc/kubernetes/manifests/kube-control-manager.yaml和etc/kubernetes/control-manager.conf兩個文件。
kube-schedule主要負責pod實例的調度,包括/etc/kubernetes/manifests/kube-schedule.yaml和etc/kubernetes/schedule.conf兩個文件。
Kubeadm的默認安裝,已經將kube-control-manager和kube-schedule的elect設置為true,支持多實例運行,只需要將其復制到副節點的/etc/kubernetes就可以了。
具體操作如下:
# 復制control-manager和schedule的配置文件到本地。 # 參考 https://my.oschina.net/u/2306127/blog/write/2991361 # 首先登錄到遠程節點,然后再執行下面的命令。 echo "Clone control-manager configuration file." scp root@10.1.1.201:/etc/kubernetes/control-manager.conf /etc/kubernetes/ scp root@10.1.1.201:/etc/kubernetes/manifests/kube-control-manager.yaml /etc/kubernetes/manifests/ echo "Clone schedule configuration file." scp root@10.1.1.201:/etc/kubernetes/schedule.conf /etc/kubernetes/ scp root@10.1.1.201:/etc/kubernetes/manifests/kube-schedule.yaml /etc/kubernetes/manifests/
重啟kubelet,將自動重啟control-manager和schedule實例。
在主節點掛掉后,需要在副節點上使用kubectl。首先將admin.conf復制到副節點上,然后將其配置到本地賬戶。
具體操作如下:
# 復制admin.conf scp root@10.1.1.201:/etc/kubernetes/admin.conf /etc/kubernetes/ # 創建本地賬戶訪問目錄,用戶配置文件 mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
admin.conf的主IP地址通過虛擬IP訪問,不需要進行任何修改。
現在,之前的副節點已經可以執行Master上面的所有操作了(所有節點都可以執行)。試一下:
# Kubernetes版本。 kubectl version # 集群信息,服務地址。 kubectl cluster-info # 集群節點列表。 kubectl get node -o wide # 集群運行的所有pod信息。 kubectl get pod --all-namespaces -o wide
檢查一下,新升級的副節點和主節點的輸出信息是否一致。如果不一致:
檢查etcd集群的一致性(詳情參考《Kubernetes 1.13.1的etcd集群擴容實戰技巧》)。
kube-control-manager、kube-schedule的容器實例是否運行正常,參數配置是否正確。
以上是“Kubernetes集群多Master容錯配置技巧有哪些”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。