您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關Linux單機偽分布式安裝的示例分析,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
1、服務器信息
一臺linux服務器【Linux 5.5,x86_64,用于安裝hadoop】
jdk1.6.0_31
hadoop-2.2.0.tar.gz
主要是每次啟動hadoop時不用多次輸入登錄Linux操作系統密碼。
(1)實現無密碼登錄本機
$ ssh-keygen -t rsa
直接回車,會提示輸入存儲密碼的文件名,輸入id_rsa,完成后會在~/.ssh/生成兩個文件:id_rsa和id_rsa.pub。
$ ssh-keygen -t dsa
直接回車,會提示輸入存儲密碼的文件名,輸入id_dsa,完成后會在~/.ssh/生成兩個文件:id_dsa和id_dsa.pub。
$cat~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys 將生成的密鑰串在鑰匙鏈上
$cat~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys 將生成的密鑰串在鑰匙鏈上
$chmod 600 ~/.ssh/authorized_keys。
然后 ssh localhost 驗證是否成功,第一次要你輸入yes,以后就不需要了。
保證待安裝hadoop的服務器上安裝jdk;
假設hadoop安裝在/home/username/hadoop目錄下(username為操作系統登錄用戶),以下統稱hadoop安裝目錄。
(1)解壓hadoop-2.2.0.tar.gz到hadoop安裝目錄下。
(2)配置系統環境變量
可修改/etc/profile文件,在文件末尾添加如下內容。本文是修改/home/username/.bash_profile,修改完后請重新登錄ssh。
exportHADOOP_PREFIX="/home/username/hadoop/hadoop-2.2.0"
PATH="$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin"
export HADOOP_MAPRED_HOME=${HADOOP_PREFIX}
export HADOOP_COMMON_HOME=${HADOOP_PREFIX}
export HADOOP_HDFS_HOME=${HADOOP_PREFIX}
export HADOOP_YARN_HOME=${HADOOP_PREFIX}
export HADOOP_CONF_DIR="${HADOOP_PREFIX}/etc/hadoop"
export YARN_CONF_DIR="${HADOOP_PREFIX}/etc/hadoop"
export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native
exportHADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"
(3)配置hadoop
需要修改以下配置文件:
hadoop-env.sh
修改JAVA_HOME,這里JAVA_HOME的路徑必須指定為真實的路徑,不能引用${JAVA_HOME},否則運行的時候會有錯誤JAVA_HOME is not set。配置如下:
export JAVA_HOME=/usr/java/jdk1.6.0_26
core-site.xml
hdfs-site.xml
其中,/home/username/hadoop/dfs/name,/home/username/hadoop/dfs/data都是文件系統中的目錄,需要先新建。
mapred-site.xml
yarn-site.xml
注意yarn.nodemanager.aux-services屬性的值應為mapreduce_shuffle,而不是mapreduce.shuffle(差別為“_”與“.”),否則會出現錯誤。
完成以上配置后可以檢測是否配置成功。
(1)格式化hadoop的文件系統HDFS
在啟動hadoop之前,需要格式化hadoop的文件系統HDFS。進入/home/username/hadoop/hadoop-2.2.0/bin文件夾,執行以下命令進行格式化:
$ hdfs namenode -format
(2)啟動hadoop
格式化文件系統成功后,進入/home/username/hadoop/hadoop-2.2.0/sbin目錄,啟動hadoop。執行以下命令:
$ start-all.sh --此命令在hadoop2.2.0版本已被遺棄。
hadoop2.2.0推薦使用以下命令啟動:
首先啟動hdfs:
$ start-dfs.sh
或者
$ hadoop-daemon.sh startnamenode
$ hadoop-daemon.sh startdatanode
然后啟動yarn daemons:
$ start-yarn.sh
或者
$ yarn-daemon.sh startresourcemanager
$ yarn-daemon.sh startnodemanager
啟動完成后訪問以下地址查看dfs狀態,如果成功會顯示對應界面:
http://x.x.x.x:50070/dfshealth.jsp HDFS的web界面
datanode:
http://x.x.x.x:50075/
resourcemanager(JobTracker replacement):
http://x.x.x.x:8088/cluster Web app /cluster
nodemanager(TaskTrackerreplacement):
http://x.x.x.x:8042/node Web app /node
關于“Linux單機偽分布式安裝的示例分析”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。