中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop 組件之spark的安裝及配置

發布時間:2020-07-08 11:08:48 來源:網絡 閱讀:899 作者:段冰心 欄目:大數據

下面給出的是spark集群搭建的環境:


操作系統:最小安裝的CentOS 7(下載地址)


Yarn對應的hadoop版本號:Hadoop的Cloudera公司發行版Hadoop2.6.0-CDH5.4.0(下載地址)


Java版本號:JDK1.8(下載地址)


Scala版本號:Scala2.10.4(下載地址)


Spark版本號:spark-1.3.1-bin-hadoop2.6(下載地址)


集群組成:master  192.168.1.2


                     slave1   192.168.1.3


                     slave2   192.168.1.4


                     slave3   192.168.1.5


 


1、  操作系統的安裝


我覺得這個就沒必要說了,下載一個虛擬機或者直接在真機安裝,比較簡單,不再贅述。


2、  Java的安裝


請參看我的博文《Jdk1.8在CentOS7中的安裝與配置》有詳細說明。


3、  Scala的安裝


請參看我的博文《Scala2.10.4在CentOS7中的安裝與配置》有詳細說明。


4、  Yarn的部署


Yarn是由Hadoop2.x發展而來,是Hadoop1.x的JobTracker和TaskTracker的升級版本,是hadoop2.x的資源調度工具。搭建Hadoop2.x環境的時候,yarn會自動被搭建好,所以,我們只需要搭建hadoop環境即可。


Hadoop具體環境搭建,請參看我的博文《Hadoop2.6.0在CentOS 7中的集群搭建》有詳細說明。


5、  Spark的集群搭建


a)         首先,從官網下載spark1.3.1對應hadoop2.6.0的版本(注:以下所有操作都在超級用戶模式下進行!)


b)         在主節點master的root/app的目錄下,解壓下載好的spark-1.3.1-bin-hadoop2.6.tgz:


tar –xzvf spark-1.3.1-bin-hadoop2.6.tgz


c)         配置Spark的環境變量:


  i.   vi  /etc/profile


  ii.  在文件最后添加:


      ## SPARK


      export SPARK_HOME=spark的絕對路徑(我這邊是:/root/app/spark-1.3.1-bin-hadoop2.6)


      export PATH=$PATH:$SPARK_HOME/bin


d)         Spark的相關文件配置


  i.  slaves的配置:


  vi slaves

  添加從節點slave名稱:

        slave1


        slave2


        slave3


  ii.  spark-env.sh的配置


  vi spark-env.sh

  向文件添加:

        export JAVA_HOME=Java安裝的絕對路徑(我這邊是:/root/app/jdk1.8)


        export SCALA_HOME=Scala安裝的絕對路徑(我這邊是:/root/app/scala2.10)


        export HADOOP_CONF_DIR=hadoop環境下的配置文件目錄etc/hadoop的絕對路徑(我這邊是:/root/app/hadoop-2.6.0-cdh6.4.0/etc/Hadoop)


        export SPARK_MASTER_IP=主節點IP或主節點IP映射名稱(我這邊是:master)


        export SPARK_MASTER_PORT=主節點啟動端口(默認7077)


        export PARK_MASTER_WEBUI_PORT=集群web監控頁面端口(默認8080)


        export SPARK_WORKER_CORES=從節點工作的CPU核心數目(默認1)


        export SPARK_WORKER_PORT=從節點啟動端口(默認7078)


        export SPARK_WORKER_MEMORY=分配給Spark master和 worker 守護進程的內存空間(默認512m)


        export SPARK_WORKER_WEBUI_PORT=從節點監控端口(默認8081)


        export SPARK_WORKER_INSTANCES=每臺從節點上運行的worker數量 (默認: 1). PS:當你有一個非常強大的計算的時候和需要多個Spark worker進程的時候你可以修改這個默認值大于1 . 如果你設置了這個值。要確保SPARK_WORKER_CORE 明確限制每一個worker的核心數, 否則每個worker 將嘗試使用所有的核心。


     3.  我這邊的yarn部署是按照spark配置文件的默認部署的,如果你想根據實際情況來部署的話,可以修改一下文件:


        # - HADOOP_CONF_DIR, to point Spark towards Hadoop configuration files


        # - SPARK_EXECUTOR_INSTANCES, Number of workers to start (Default: 2)


        # - SPARK_EXECUTOR_CORES, Number of cores for the workers (Default: 1).


        # - SPARK_EXECUTOR_MEMORY, Memory per Worker (e.g. 1000M, 2G) (Default: 1G)


        # - SPARK_DRIVER_MEMORY, Memory for Master (e.g. 1000M, 2G) (Default: 512 Mb)


        # - SPARK_YARN_APP_NAME, The name of your application (Default: Spark)


        # - SPARK_YARN_QUEUE, The hadoop queue to use for allocation requests


        # - SPARK_YARN_DIST_FILES, Comma separated list of files to be distributed with the job.


        # - SPARK_YARN_DIST_ARCHIVES, Comma separated list of archives to be distributed with the job.


  iii.  Spark文件復制:


    將配置好的Spark文件復制到各個從節點slave對應的目錄上:


    scp spark-1.3.1-bin-hadoop2.6/ root@slave1:/root/app


    scp spark-1.3.1-bin-hadoop2.6/ root@slave2:/root/app


    scp spark-1.3.1-bin-hadoop2.6/ root@slave3:/root/app


6、  Spark On Yarn的集群啟動:


  a)  Yarn的啟動:


     i.   先進入hadoop目錄下


    ii.   ./sbin/start-all.sh


    iii.   jps發現有ResourceManager進程,說明yarn啟動完成


  b)  Spark的啟動:


    i.   先進入spark目錄下


    ii.   ./sbin/start-all.sh


    iii.   jps主節點發現有Master進程,jps從節點有Worker進程,說明spark啟動完成


  c)      Spark監控頁面,我就不測試了,一般都是masterIP:8080,如有打不開監控頁面的問題也是防火墻沒有被禁用的問題,請參看我的博文《Hadoop環境搭建過程中可能遇到的問題》 里面的問題2有詳細說明。


7、至此,Spark On Yarn的集群搭建完成。


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

通江县| 孟连| 石渠县| 奉化市| 滨州市| 贵德县| 通辽市| 来安县| 青浦区| 岫岩| 县级市| 巴林左旗| 定安县| 阜宁县| 浮山县| 宕昌县| 福鼎市| 宜川县| 哈密市| 界首市| 高密市| 明星| 台州市| 辰溪县| 上杭县| 六盘水市| 张家港市| 丘北县| 永城市| 象山县| 凤城市| 石阡县| 阿拉善右旗| 泸州市| 淄博市| 双辽市| 南充市| 双牌县| 新巴尔虎左旗| 昌平区| 衡东县|