中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop2.x的安裝步驟

發布時間:2021-08-06 18:46:21 來源:億速云 閱讀:171 作者:chen 欄目:云計算

這篇文章主要介紹“Hadoop2.x的安裝步驟”,在日常操作中,相信很多人在Hadoop2.x的安裝步驟問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”Hadoop2.x的安裝步驟”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

一、安裝配置

1.創建hadoop用戶(我是添加到root group,也可以新增hadoop group)

[root@hftclclw0001 ~]# useradd hadoop
[root@hftclclw0001 ~]# usermod -g root

[root@hftclclw0001 ~]# cat /etc/passwd
...
...
hadoop:x:50295:0::/home/hadoop:/bin/bash

[root@hftclclw0001 ~]# chmod 644 /etc/suders
[root@hftclclw0001 ~]# vi 644 /etc/suders
...
...
root	ALL=(ALL) 	ALL
hadoop	ALL=(ALL) 	ALL
...

2.ssh免密碼登陸

[hadoop@hftclclw0001 hadoop]$ ssh-keygen -t rsa

[hadoop@hftclclw0001 hadoop]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 

[hadoop@hftclclw0001 hadoop]$ tree ~/.ssh/
/home/hadoop/.ssh/
├── authorized_keys
├── id_rsa
├── id_rsa.pub
└── known_hosts

0 directories, 4 files

操作其他各個機器,并復制公鑰(d_rsa.pub)到其他各個機器的authorized_keys中。我使用的scp,復制到其他機器,再使用cat追加到authorized_keys文件中

3. 下載hadoop-2.x.y.tar.gz

[root@hftclclw0001 hadoop]# pwd
/home/hadoop

[root@hftclclw0001 hadoop]# tar -zxvf hadoop-2.7.1.tar.gz

[root@hftclclw0001 hadoop]# ll
total 546584
drwx------ 11 hadoop root      4096 Oct 20 09:05 hadoop-2.7.1
-rw-------  1 hadoop root 210606807 Oct 20 09:00 hadoop-2.7.1.tar.gz
drwx------ 13 hadoop root      4096 Oct 20 09:22 spark-1.5.1-bin-hadoop2.6
-rw-------  1 hadoop root 280901736 Oct 20 09:19 spark-1.5.1-bin-hadoop2.6.tgz
drwx------ 22 hadoop root      4096 Oct 21 00:07 sqoop-1.99.6-bin-hadoop200
-rw-------  1 hadoop root  68177818 May  5 22:34 sqoop-1.99.6-bin-hadoop200.tar.gz

4.配置hadoop-2.x.y

[hadoop@hftclclw0001 hadoop]$ pwd
/home/hadoop/hadoop-2.7.1/etc/hadoop

[hadoop@hftclclw0001 hadoop]$ vi hadoop-env.sh 
# The java implementation to use.
export JAVA_HOME=/usr/java/latest            => 配置java_home

[hadoop@hftclclw0001 hadoop]$ vi core-site.xml
<configuration>
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/home/hadoop/hadoop-2.7.1/tmp</value>    => 需創建,默認在/tmp下
	</property>
	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://{master:IP}:9000</value>          
	</property>
</configuration>

[hadoop@hftclclw0001 hadoop]$ vi hdfs-site.xml
<configuration>
	<property>
		<name>dfs.http.address</name>
		<value>{master:ip}:50070</value>
	</property>
	<property>
		<name>dfs.replication</name>
		<value>2</value>                        =>我這有3臺機器,2臺datanode 1臺Namenode
	</property>
</configuration>

[hadoop@hftclclw0001 hadoop]$ vi mapred-site.xml
<configuration>
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
</configuration>

[hadoop@hftclclw0001 hadoop]$ vi yarn-env.sh
...
export JAVA_HOME=/usr/java/latest
...

[hadoop@hftclclw0001 hadoop]$ vi yarn-site.xml 
	<property>
                <name>yarn.resourcemanager.hostname</name>     =>需要配置,在啟動時候nodemanager會訪問resouremanager
                <value>{master:ip}</value>
        </property> 
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
</configuration>

[hadoop@hftclclw0001 hadoop]$ vi masters                        =>其實作用的secondary namenode在那個節點上
{master:ip}

[hadoop@hftclclw0001 hadoop]$ vi slaves                         =>作用的datanode再那些節點上
{slave-1:ip}
{slave-2:ip}

5. 復制到其他機器

[hadoop@hftclclw0001 ~]$ pwd
/home/hadoop

[hadoop@hftclclw0001 ~]$ scp -r hadoop-2.7.1 hadoop@{ip}:/home/hadoop

6.啟動

[hadoop@hftclclw0001 hadoop-2.7.1]$ ./bin/hadoop namenode -format

[hadoop@hftclclw0001 hadoop-2.7.1]$ pwd
/home/hadoop/hadoop-2.7.1

[hadoop@hftclclw0001 hadoop-2.7.1]$ ./sbin/start-dfs.sh    => 啟動dfs, jps查看進程

master:namenode ,secondary namenode
slave:datanode

[hadoop@hftclclw0001 hadoop-2.7.1]$ ./sbin/start-yarn.sh   =>啟動yarn

7.驗證

     a.jps       => 校驗各個進程

    b.netstat => 校驗端口

    c.webui   => 可以校驗cluster整體狀況 

    d.也可以操作hdfs、或是submit mr job

[hadoop@hftclclw0001 hadoop-2.7.1]$ pwd
/home/hadoop/hadoop-2.7.1

[hadoop@hftclclw0001 hadoop-2.7.1]$ ./bin/hdfs dfs -ls /
...
...

[hadoop@hftclclw0001 hadoop-2.7.1]$ ./bin/hdfs dfs -mkdir /test
...
...

[hadoop@hftclclw0001 hadoop-2.7.1]$ ./bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount {in} {out}

[hadoop@hftclclw0001 hadoop-2.7.1]$ ./bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar pi 10 10

二、trouble shooting

  1. 文件寫入權限問題

    當外部程序寫入hdfs時,默認都要進行用戶認證。如按照上述配置,只能hadoop賬戶可以寫hdfs

    dfs.premissions.enabled=true 即對用戶進行認證。修改為false

    dfs.datanode.data.dir.perm=700 即本地目錄的寫入權限。修改為755

到此,關于“Hadoop2.x的安裝步驟”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

临潭县| 修水县| 三江| 黎川县| 岑溪市| 彝良县| 深泽县| 岐山县| 十堰市| 兰坪| 莱州市| 阿鲁科尔沁旗| 铁力市| 元江| 辽源市| 阳信县| 平罗县| 滦南县| 百色市| 盐津县| 河池市| 葵青区| 额敏县| 定西市| 甘洛县| 滕州市| 义乌市| 洞头县| 安新县| 黎平县| 宜黄县| 同德县| 信阳市| 环江| 永修县| 巴里| 通渭县| 霍城县| 沂南县| 攀枝花市| 乌海市|