您好,登錄后才能下訂單哦!
本篇內容介紹了“如何在Kubernetes環境中配置Spark Executor”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
Spark在執行任務時,需要訪問到Executor的許多端口,而這些端口是隨機的,又是通過主機名稱訪問。所以Kubernetes環境與大數據環境之間難以直接訪問。可通過以下配置實現大數據集群訪問到Kubernetes環境中運行的Spark Executor
1、Spark Executor在執行時,有許多隨機端口,在K8S環境中運行時需要固定其端口,端口的范圍為K8S集群NodePort分配的端口范圍:30000-32767
#driver監聽的接口。這用于和executors以及獨立的master通信(默認隨機)spark_driver_port: 30920#driver的文件服務器監聽的端口(默認隨機)spark_fileserver_port: 30921#driver的HTTP廣播服務器監聽的端口(默認隨機)spark_broadcast_port: 30922#driver的HTTP類服務器監聽的端口(默認隨機)spark_replClassServer_port: 30923#塊管理器監聽的端口。這些同時存在于driver和executors(默認隨機)spark_blockManager_port: 30924#executor監聽的端口。用于與driver通信(默認隨機)spark_executor_port: 30925
2、為Spark Executor創建一個StatefulSet,可以得到一個DNS域名:$(podname).(headless server name).namespace.svc.cluster.local
apiVersion: apps/v1kind: StatefulSetmetadata:name: my-executor-statefulsetnamespace: [namespace]labels: app: my-executor-statefulsetspec:serviceName: my-executorreplicas: 1selector:matchLabels:app: my-executor-podversion: [version]template:metadata:labels:app: my-executor-podversion: [version]spec:containers: - name: my-executor-pod image: 192.168.0.12:9090/eyes/my-executor-[namespace]:[version]-[ru] imagePullPolicy: Always ports: - containerPort: 5011hostAliases: - hostnames: - hadoop-master01ip: 192.168.0.10 - hostnames: - hadoop-slave02ip: 192.168.0.11
3、為Spark Executor創建一個NodePort類型的Service,需要配置剛剛第一步配置好的固定端口
apiVersion: v1kind: Servicemetadata:name: my-executor-svcnamespace: [namespace]labels: app: my-executor-podspec:ports: - port: 5011 name: tcp-port protocol: TCP - port: 4040 name: spark-http-port protocol: TCP nodePort: 30028 - port: 30920 name: spark-driver-port protocol: TCP nodePort: 30920 - port: 30921 name: spark-fileserver-port protocol: TCP nodePort: 30921 - port: 30922 name: spark-broadcast-port protocol: TCP nodePort: 30922 - port: 30923 name: spark-eplclassserver-port protocol: TCP nodePort: 30923 - port: 30924 name: spark-blockmanager-port protocol: TCP nodePort: 30924 - port: 30925 name: spark-executor-port protocol: TCP nodePort: 30925selector: app: my-executor-podtype: NodePort
4、在大數據環境的機器中全部配置hosts為StatefulSet的DNS域名:$(podname).(headless server name).namespace.svc.cluster.local,IP地址設置為K8S中的任意IP即可
192.168.0.12 my-executor-statefulset-0.my-executor.test2.svc.cluster.local
“如何在Kubernetes環境中配置Spark Executor”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。