您好,登錄后才能下訂單哦!
service是要通過coreDNS來管理pod的。
kube-proxy始終監視著apiserver,獲取與service資源的變動狀態。一旦發現有service資源發生變動,kube-proxy都要把它轉變為當前節點之上的,能夠實現service資源調度,包括將客戶端資源調度到pod的規則(iptables或者ipvs)。
service工作模式有三種:userspace(k8s 1.1版本之前),iptables(k8s 1.10版本之前)和ipvs(k8s 1.11版本之后)
userspace模型:用戶空間模型。k8s 1.11版本用ipvs了,這個比iptables效率高。
[root@master ~]# kubectl get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 16d redis ClusterIP 10.106.138.181 <none> 6379/TCP 23h
[root@master ~]# kubectl delete svc redis service "redis" deleted
注意kubernetes這個service千萬別刪,因為K8s都是通過10.96.0.1這個地址聯系的。
[root@master ~]# kubectl explain svc
service類型:
a)、ExternalName:表示把集群外部的服務引入到集群內部中來,即實現了集群內部pod和集群外部的服務進行通信;
b)、ClusterIP:只能在集群內部通訊;
c)、NodePort:可以和集群外部通訊;
d)、LoadBalancer:這個表示我們把k8s部署在虛擬機上,自動在外部創建負載均衡器。比如在阿里云上,底層是LBAAS。
以前我們使用kubectl expose創建service,下面我們使用清單來創建service。
[root@master manifests]# cat redis-svc.yaml apiVersion: v1 kind: Service metadata: name: redis namespace: default spec: selector: app: redis role: logstor clusterIP: 10.97.97.97 #這個ip可以不指定,讓它自動分配 type: ClusterIP ports: - port: 6379 #service ip中的端口 targetPort: 6379 #容器ip中的端口
[root@master manifests]# kubectl apply -f redis-svc.yaml service/redis created
[root@master manifests]# kubectl get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 16d redis ClusterIP 10.97.97.97 <none> 6379/TCP 1m
[root@master manifests]# kubectl describe svc redis Name: redis Namespace: default Labels: <none> Annotations: kubectl.kubernetes.io/last-applied-configuration={"apiVersion":"v1","kind":"Service","metadata":{"annotations":{},"name":"redis","namespace":"default"},"spec":{"clusterIP":"10.97.97.97","ports":[{"por... Selector: app=redis,role=logstor Type: ClusterIP IP: 10.97.97.97 Port: <unset> 6379/TCP TargetPort: 6379/TCP Endpoints: 10.244.2.65:6379 ##這是pod的ip Session Affinity: None Events: <none>
資源記錄:SVC_NAME.NAMESPACE_NAME.DOMAIN.LTD
集群默認后綴是svc.cluster.local
比如我們創建的redis默認名稱就是redis.defalut.svc.cluster.local
訪問路徑:client---->NodeIP:NodePoint----->ClusterIP:ServerPort---->PodIP:containerPort
[root@master manifests]# cat myapp-svc.yaml apiVersion: v1 kind: Service metadata: name: myapp namespace: default spec: selector: app: myapp release: canary clusterIP: 10.99.99.99 #這個ip可以不指定,讓他自動分配 type: NodePort ports: - port: 80 #service ip的端口 targetPort: 80 #容器ip的端口 nodePort: 30080 #node節點上端口,這個端口也可以不指定,會自動分配端口
[root@master manifests]# kubectl apply -f myapp-svc.yaml service/myapp created
[root@master manifests]# kubectl get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 16d myapp NodePort 10.99.99.99 <none> 80:30080/TCP 44s redis ClusterIP 10.97.97.97 <none> 6379/TCP 15m
[root@master manifests]# curl http://172.16.1.101:30080/hostname.html myapp-deploy-69b47bc96d-79fqh [root@master manifests]# curl http://172.16.1.101:30080/hostname.html myapp-deploy-69b47bc96d-tc54k
注意:172.16.1.101是Node節點的Ip,并且可以看到訪問是做了負載均衡的
下面我們再把來自同一個客戶端會話請求用sessionAffinity粘滯到一個固定的pod上,這樣就不會出現負載均衡現象了,相當于nginx的 ip_hash功能,如下:
[root@master manifests]# kubectl patch svc myapp -p '{"spec":{"sessionAffinity":"ClientIP"}}' service/myapp patched
上面打的補丁也可以直接用edit方法編輯。
[root@master manifests]# kubectl describe svc myapp Session Affinity: ClientIP
再改回負載均衡模式: [root@master manifests]# kubectl patch svc myapp -p '{"spec":{"sessionAffinity":"None"}}' service/myapp patched
我們前面介紹的service是service name解析為cluster ip,然后cluster ip對應到后面的pod ip。
而無頭service是指service name 直接解析為后面的pod ip。
無頭就是沒有cluster ip牽頭了。
[root@master manifests]# cat myapp-svc-headless.yaml apiVersion: v1 kind: Service metadata: name: myapp-svc namespace: default spec: selector: app: myapp #挑選的pod還是myapp。一個pod可以有多個service release: canary clusterIP: None #None表示是無頭service ports: - port: 80 #service ip中的端口 targetPort: 80 #容器ip中的端口
[root@master manifests]# kubectl apply -f myapp-svc-headless.yaml service/myapp-svc created
[root@master manifests]# kubectl get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 16d myapp NodePort 10.99.99.99 <none> 80:30080/TCP 1h myapp-svc ClusterIP None <none> 80/TCP 28s redis ClusterIP 10.97.97.97 <none> 6379/TCP 1h
看到上面myapp-svc的cluster-ip是空,這就是無頭service。
[root@master manifests]# kubectl get svc -n kube-system NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE kube-dns ClusterIP 10.96.0.10 <none> 53/UDP,53/TCP 16d
可以看到coreDNS的地址是10.96.0.10
[root@master manifests]# dig -t A myapp-svc.default.svc.cluster.local. @10.96.0.10 ; <<>> DiG 9.9.4-RedHat-9.9.4-61.el7_5.1 <<>> -t A myapp-svc.default.svc.cluster.local. @10.96.0.10 ;; global options: +cmd ;; Got answer: ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 10702 ;; flags: qr aa rd ra; QUERY: 1, ANSWER: 2, AUTHORITY: 0, ADDITIONAL: 1 ;; OPT PSEUDOSECTION: ; EDNS: version: 0, flags:; udp: 4096 ;; QUESTION SECTION: ;myapp-svc.default.svc.cluster.local. INA ;; ANSWER SECTION: myapp-svc.default.svc.cluster.local. 5 IN A10.244.1.63 myapp-svc.default.svc.cluster.local. 5 IN A10.244.2.51 ;; Query time: 0 msec ;; SERVER: 10.96.0.10#53(10.96.0.10) ;; WHEN: Mon Sep 24 00:22:07 EDT 2018 ;; MSG SIZE rcvd: 166
[root@master manifests]# kubectl get pods -o wide -l app=myapp NAME READY STATUS RESTARTS AGE IP NODE myapp-deploy-69b47bc96d-79fqh 1/1 Running 0 1d 10.244.1.63 node1 myapp-deploy-69b47bc96d-tc54k 1/1 Running 0 1d 10.244.2.51 node2
上面看到無頭service name直接被解析到另個pod上的ip了。
我們可以用ExternalName對Service名稱和集群外部服務地址做一個映射,使之訪問Service名稱就是訪問外部服務。例如下面的例子是將 svc1 和 xxx.xxx.xxx.xxx 做了對等關系。
kind: Service apiVersion: v1 metadata: name: svc1 namespace: default spec: type: ExternalName externalName: somedomain.org
不過,ExternalName 類型的服務適用于外部服務使用域名的方式,缺點是不能指定端口。
另外,要實現集群內訪問集群外服務的這個需求,也是非常簡單的。因為集群內的Pod會繼承Node上的DNS解析規則。因此只要Node可以訪問的服務,Pod中也可以訪問到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。