您好,登錄后才能下訂單哦!
本篇內容介紹了“怎么在kubernetes中部署DNS”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
kubernetes 提供了 service 的概念可以通過 VIP(Service IP 是 virtual IP(VIP)) 訪問 pod 提供的服務,但是在使用的時候還有一個問題:怎么知道某個應用的 VIP?比如我們有兩個應用,一個 app,一個 是 db,每個應用使用 rc或deployment進行管理,并通過 service 暴露出端口提供服務。app 需要連接到 db 應用,我們只知道 db 應用的名稱,但是并不知道它的 VIP 地址。這就涉及到了==服務發現==的問題了。
針對以上問題,k8s提供了三種==服務發現==的方法:
該方法較為簡單,但問題較多。首先每個應用都要在啟動的時候編寫查詢依賴服務的邏輯,這本身就是重復和增加應用的復雜度;其次這也導致應用需要依賴 kubernetes,不能夠單獨部署和運行(當然如果通過增加配置選項也是可以做到的,但這又是增加復雜度)。
K8S默認支持,這一方法是參照docker的。每個 pod 啟動時候,k8s會將之前存在的所有服務的 IP 和 port 信息通過環境變量的形式寫入到新啟動的pod中,這樣 pod中的應用可以通過讀取環境變量來獲取依賴服務的地址信息。但是有個很大的問題:依賴的服務必須在 pod 啟動之前就存在,不然就不會出現在環境變量中。
應用只需要知道服務的具體名字,不需要關心服務的實際的 ip 地址,中間的==服務名--IP==轉換由DNS自動完成。名字和 ip 之間的轉換就是 DNS 系統的功能。
DNS 服務不是獨立的系統服務,而是一種 ==addon== ,作為==插件==來安裝的,不是 kubernetes 集群必須的(==但是非常推薦安裝==)。可以把它看做運行在集群上的應用,只不過這個應用比較特殊而已。 目前常用的DNS配置方式有兩種,在 1.3 之前使用 etcd + kube2sky + skydns + exechealthz的方式,在 1.3 之后可以使用 kubedns + dnsmasq +sidecar 的方式。
下面對這些組件功能進行介紹
1.3版本前
etcd: DNS存儲
kube2sky: 通過K8S API監視Service資源的變化,將service注冊到etcd
skydns: 提供DNS域名解析服務,為集群中的Pod提供DNS查詢服務
exechealthz: 提供對skydns服務的健康檢查功能
架構圖
1.3版本后
kubedns: 通過K8S API監視Service資源的變化,并使用樹形結構在內存中保存DNS記錄
dnsmasq: 提供DNS域名解析服務,為集群中的Pod提供DNS查詢服務
exechealthz: 提供對kubedns和dnsmasq兩個服務的健康檢查功能,更加完善
架構圖
從中可以看出kubedns替代了 etcd和 kube2sky這兩個功能,為dnsmasq提供查詢服務,使用樹形結構在內存中保存DNS記錄
dnsmasq在kube-dns插件中的作用: 通過kubedns容器獲取DNS規則,在集群中提供DNS查詢服務 提供DNS緩存,提高查詢性能 降低kubedns容器的壓力、提高穩定性
網上有很多搭建的教程,本人一一嘗試!發現都沒成功!很尷尬!可能是因為k8s版本不同或k8s集群搭建方式不同,又或者是引入了ServiceAccount 、token和認證等模塊。此處就不詳細介紹。 通過本人不懈努力(請允許我裝個B..),終于實現了一個精簡版DNS方案:kubedns + dnsmasq + exechealthz,具體的yaml文件可點擊這里查看。
廢話不多說,直接上內容!
dns-rc.yaml
apiVersion: v1 kind: ReplicationController metadata: name: kube-dns-v15 namespace: kube-system labels: k8s-app: kube-dns version: v15 kubernetes.io/cluster-service: "true" spec: replicas: 1 selector: k8s-app: kube-dns version: v15 template: metadata: labels: k8s-app: kube-dns version: v15 kubernetes.io/cluster-service: "true" spec: containers: - name: kubedns image: registry.cn-hangzhou.aliyuncs.com/sjq-k8s/kubedns-amd64:1.5 resources: # TODO: Set memory limits when we've profiled the container for large # clusters, then set request = limit to keep this container in # guaranteed class. Currently, this container falls into the # "burstable" category so the kubelet doesn't backoff from restarting it. limits: cpu: 100m memory: 200Mi requests: cpu: 100m memory: 100Mi livenessProbe: httpGet: path: /healthz port: 8080 scheme: HTTP initialDelaySeconds: 60 timeoutSeconds: 5 successThreshold: 1 failureThreshold: 5 readinessProbe: httpGet: path: /readiness port: 8081 scheme: HTTP # we poll on pod startup for the Kubernetes master service and # only setup the /readiness HTTP server once that's available. initialDelaySeconds: 30 timeoutSeconds: 5 args: # command = "/kube-dns" - --kube_master_url=http://192.168.122.10:8080 - --domain=cluster.local. - --dns-port=10053 ports: - containerPort: 10053 name: dns-local protocol: UDP - containerPort: 10053 name: dns-tcp-local protocol: TCP - name: dnsmasq image: registry.cn-hangzhou.aliyuncs.com/sjq-k8s/dnsmasq:1.1 args: - --cache-size=1000 - --no-resolv - --server=127.0.0.1#10053 ports: - containerPort: 53 name: dns protocol: UDP - containerPort: 53 name: dns-tcp protocol: TCP - name: healthz image: registry.cn-hangzhou.aliyuncs.com/sjq-k8s/exechealthz-amd64:1.0 resources: # keep request = limit to keep this container in guaranteed class limits: cpu: 10m memory: 20Mi requests: cpu: 10m memory: 20Mi args: - -cmd=nslookup kubernetes.default.svc.cluster.local 127.0.0.1 >/dev/null - -port=8080 ports: - containerPort: 8080 protocol: TCP dnsPolicy: Default # Don't use cluster DNS.
其中的鏡像由于被墻,所以直接被我替換成了本人阿里云上的鏡像,可以直接下載使用, 其中- --kube_master_url=http://192.168.122.10:8080 中的IP記得換成自己的master ip和port
dns-svc.yaml
apiVersion: v1 kind: Service metadata: name: kube-dns namespace: kube-system labels: k8s-app: kube-dns kubernetes.io/cluster-service: "true" kubernetes.io/name: "KubeDNS" spec: selector: k8s-app: kube-dns clusterIP: 192.168.3.10 ports: - name: dns port: 53 protocol: UDP - name: dns-tcp port: 53 protocol: TCP
其中將clusterIP: 192.168.3.10 中的ip換成你實際定義的dns集群ip。
創建rc和service
$ kubectl create -f skydns-rc.yaml replicationcontroller "kube-dns-v15" created $ kubectl create -f skydns-svc.yaml service "kube-dns" created
查看是否running
$ kubectl get pod -n kube-system NAME READY STATUS RESTARTS AGE kube-dns-v15-32902 3/3 Running 0 2m $ $ kubectl get svc -n kube-system NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE kube-dns 192.168.3.10 <none> 53/UDP,53/TCP 7m
通過啟動一個帶有nslookup工具的busybox來驗證DNS服務是否能夠正常工作:
busybox.yaml
apiVersion: v1 kind: Pod metadata: name: busybox namespace: default spec: containers: - image: busybox command: - sleep - "3600" imagePullPolicy: IfNotPresent name: busybox restartPolicy: Always
啟動
$ kubectl create -f busybox.yaml pod "busybox" created
pod成功運行后,通過kubectl exec <容器Id> nslookup進行測試
$ kubectl exec busybox -- nslookup kubernetes Server: 192.168.3.10 Address 1: 192.168.3.10 kube-dns.kube-system.svc.cluster.local Name: kubernetes Address 1: 192.168.3.1 kubernetes.default.svc.cluster.local
成功!
如果測試的服務的命名空間不是default,那么一定要加上命名空間,不然會報下面的錯誤
$ kubectl exec busybox -- nslookup kube-dns nslookup: can't resolve 'kube-dns' Server: 192.168.3.10 Address 1: 192.168.3.10 kube-dns.kube-system.svc.cluster.local
加上命名空間后
$ kubectl exec busybox -- nslookup kube-dns.kube-system Server: 192.168.3.10 Address 1: 192.168.3.10 kube-dns.kube-system.svc.cluster.local Name: kube-dns.kube-system Address 1: 192.168.3.10 kube-dns.kube-system.svc.cluster.local
創建成功圖
驗證成功圖
可能的問題
“怎么在kubernetes中部署DNS”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。