您好,登錄后才能下訂單哦!
這篇文章主要講解了“怎么安裝hdfs、hbase和opentsdb”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“怎么安裝hdfs、hbase和opentsdb”吧!
配置靜態IP,修改hostname
使用
ifconfig
查看當前網卡MAC地址與名稱。假定網卡名稱為eth0
,MAC地址為33:44:55:66:77:88
編輯/etc/sysconfig/network-scripts/ifcfg-eth0
:DEVICE="eth0" BOOTPROTO="none" ONBOOT="yes" HWADDR="33:44:55:66:77:88" NETMASK="255.255.255.0" GATEWAY="192.168.1.1" IPADDR="192.168.1.110"重啟network服務:
service network restart
修改hostname:編輯/etc/sysconfig/network
文件,將hostname
一項修改為自己的hostname,需重啟生效
時間同步。使用ntp同步時間后,可以使用如下命令寫入硬件時間:hwclock --systohc -u
關閉防火墻,并禁止防火墻開機啟動:
service iptables stop chkconfig iptables off
創建hadoop用戶和組
groupadd hadoop useradd -g hadoop hadoop
調整hadoop用戶的系統limits限制:編輯/etc/security/limits.conf
文件,在后面添加:
hadoop - nofile 32768 hadoop - nproc 32000
在hadoop
用戶下,使用命令ulimit -a
查看改動情況。
修改機器的/etc/hosts
文件。在其中列出所有機器的IP地址與機器hostname
,以及127.0.0.1 localhost
,然后同步到所有機器上。
配置機器相互間hadoop
用戶的無密碼訪問
切換至
hadoop
用戶,進入該用戶主文件夾下的.ssh
文件夾下(沒有則創建) 運行命令ssh-keygen -t dsa -P ''
,確認,生成id_dsa
與id_dsa.pub
文件 將id_dsa.pub
文件改名,以便所有機器之間相互區別 將所有機器上的.pub
文件使用cat
追加到文件authorized_keys
文件中,并修改該文件權限:chmod 600 authorized_keys
將authorized_keys
同步至所有機器上hadoop
用戶主目錄下的.ssh
文件夾下
所有機器安裝jdk
,使用yum
安裝,注意相同版本
下載hadoop 2.2.0
版本,解壓至目錄/usr/local/hadoop
,該目錄即為HADOOP_HOME
修改HADOOP_HOME
下的etc/hadoop/hadoop-env.sh
,修改其中的變量JAVA_HOME
到正確位置
修改HADOOP_HOME
下的etc/hadoop/core-site.xml
文件,在<configuration>
之間加入配置。核心配置如下:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://namenode節點主機名:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>hadoop臨時文件夾存放路徑</value> </property> </configuration>
修改HADOOP_HOME
下的etc/hadoop/hdfs-site.xml
文件,在<configuration>
之間加入配置。核心配置如下:
<configuration> <property> <name>dfs.datanode.data.dir</name> <value>hadoop臨時文件夾存放路徑/dfs/data</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>hadoop臨時文件夾存放路徑/dfs/name</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> </configuration>
修改HADOOP_HOME
下的masters
文件夾,寫入master
主機名,每個一行
修改HADOOP_HOME
下的slaves
文件夾,寫入slaves
主機名,每個一行
將/usr/local/hadoop/bin
,/usr/local/hadoop/sbin
加入系統路徑
使用scp
將/usr/local/hadoop
文件夾所有內容同步至所有機器中,并注意所有機器中臨時文件夾的可訪問性
初始化namenode
:hadoop namenode -format
啟動hdfs
:start-dfs.sh
,訪問http://namenode節點主機名:50070
查看結果
下載hbase 0.98.5
,解壓至目錄/usr/local/hbase
下
修改hbase
目錄下conf/hbase-env.sh
文件,修改變量JAVA_HOME
,將變量HBASE_MANAGES_ZK
修改為true
修改conf/core-site.xml
文件,核心配置如下:
<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://namenode節點主機名:9000/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.master</name> <value>master節點主機名:60000</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>啟動zookeeper服務的主機列表,有多個用逗號隔開</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>zookeeper臨時文件存放目錄</value> </property> </configuration>
修改conf/regionservers
文件,其中列出要啟動regionserver
的主機名
將hbase
目錄下bin
目錄加入系統路徑中
使用scp
將hbase
目錄同步至所有機器中,確保臨時文件夾的可訪問性
啟動hbase
:在主節點上start-hbase.sh
,訪問http://master節點主機名:60010
查看結果
確保機器中安裝了gnuplot
下載openTSDB
的rpm安裝包,直接裝入機器中
修改/etc/opentsdb/opentsdb.conf
文件,修改如下三項:
tsd.http.cachedir = opentsdb臨時文件存放位置 tsd.http.staticroot = /usr/share/opentsdb/static/ tsd.storage.hbase.zk_quorum = 運行zookeeper機器的IP地址
在hbase
正常運行下,運行腳本env COMPRESSION=NONE HBASE_HOME=path/to/hbase /usr/share/opentsdb/tools/create_table.sh
創建表
啟動tsdb:tsdb tsd
,瀏覽器訪問當前主機的4242端口,查看結果
運行命令tsdb mkmetric proc.loadavg.1m proc.loadavg.5m
創建兩個metric
,用來測試
運行如下腳本持續向數據庫中寫入數據,在4242監控窗口上找到相應metric,查看測試結果
#!/bin/bash set -e while true; do awk -v now=`date +%s` -v host=psyDebian \ '{ print "put proc.loadavg.1m " now " " $1 " host=" host; print "put proc.loadavg.5m " now " " $2 " host=" host }' /proc/loadavg sleep 2 done | nc -w 4 192.168.1.106 4242
感謝各位的閱讀,以上就是“怎么安裝hdfs、hbase和opentsdb”的內容了,經過本文的學習后,相信大家對怎么安裝hdfs、hbase和opentsdb這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。