中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

flink yarn 部署指南

發布時間:2020-07-07 12:46:15 來源:網絡 閱讀:1457 作者:大海之中 欄目:大數據

主要分成兩部分,yarn的安裝與flink的安裝, 共3臺機器

10.10.10.125
10.10.10.126
10.10.10.127

----------------------------------------------------yarn 安裝

wget 'http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.8.5/hadoop-2.8.5.tar.gz'
tar -zxvf hadoop-2.8.5.tar.gz -C /home/zr/hadoop/

vim /etc/profile
export HADOOP_HOME=/home/zr/hadoop/hadoop-2.8.5
export PATH=$HADOOP_HOME/bin:$PATH
source /etc/profile

vim /etc/sysconfig/network host名千萬不要搞成下劃線 否則就等著完蛋吧
HOSTNAME=flink125(不同的機器配置不同)

vim /etc/hosts
10.10.10.125 flink125
10.10.10.126 flink126
10.10.10.127 flink127

vim yarn-site.xml 增加以下內容

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>

<property>
<name>yarn.resourcemanager.hostname</name>
<value>flink125</value>
</property>

<property>
<name>yarn.resourcemanager.am.max-attempts</name>
<value>4</value>
<description>The maximum number of application master execution attempts</description>
</property>

<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>

vi etc/hadoop/core-site.xml  增加以下內容
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://flink125:9000</value>
</property>
</configuration>

vi etc/hadoop/hdfs-site.xml  增加以下內容
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///data/hadoop/storage/hdfs/name</value>
</property>

<property>
<name>dfs.datanode.data.dir</name>
<value>file:///data/hadoop/storage/hdfs/data</value>
</property>

$ vi etc/hadoop/mapred-site.xml 增加以下內容
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

<property>
<name>dfs.replication</name>
<value>2</value>
</property>

vi  slaves  增加以下內容

flink126
flink127

vim hadoop/etc/hadoop/hdoop-env.sh

將語句 export JAVA_HOME=$JAVA_HOME

修改為 export JAVA_HOME=/usr/java/jdk1.8.0_101

以上操作都是在三臺機器上執行

下面是免登操作

1 在125機器上執行

   rm -r ~/.ssh

    ssh-keygen

  scp ~/.ssh/id_rsa.pub 126,127 機器上

2 在126 127上分別執行

cat id_rsa.pub>>.ssh/authorized_keys

最后在125上執行以下操作

啟動hadoop
start-dfs.sh
啟動yarn
start-yarn.sh

----------------------------------------------------yarn 配置完畢

------------------------------------------------------flink 安裝


wget 'http://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.7.2/flink-1.7.2-bin-hadoop28-scala_2.12.tgz'
tar zxvf flink-1.7.2-bin-hadoop28-scala_2.12.tgz -C /home/zr/module/

修改flink/conf/masters,slaves,flink-conf.yaml

vi masters
flink125:8081

flink126:8081

vi slaves
flink126
flink127

vi flink-conf.yaml
taskmanager.numberOfTaskSlots:2
jobmanager.rpc.address: flink125

sudo vi /etc/profile
export FLINK_HOME=/opt/module/flink-1.6.1
export PATH=$PATH:$FLINK_HOME/bin
source /etc/profile

conf/flink-conf.yaml

high-availability: zookeeper
high-availability.zookeeper.quorum: flink125:2181,flink126:2181,flink127:2181
high-availability.storageDir: hdfs:///home/zr/flink/recovery
high-availability.zookeeper.path.root: /home/zr/flink
yarn.application-attempts: 4

zoo.cfg
server.1=flink125:2888:3888
server.2=flink126:2888:3888
server.3=flink127:2888:3888

以上操作都在三臺機器上執行

--------------------------------------------flink 配置完畢

在125機器上執行:

啟動ZooKeeper仲裁

./start-zookeeper-quorum.sh

啟動flink
./flink run -m yarn-cluster -yn 2 -ytm 2048 /home/zr/module/flink-1.7.2/examples/zr/flink-data-sync-0.1.jar

參考文章

https://www.cnblogs.com/frankdeng/p/9400627.html

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

罗定市| 奉贤区| 兴仁县| 雷州市| 岳普湖县| 萨嘎县| 吉林省| 恭城| 柘荣县| 湖北省| 南乐县| 明水县| 灌阳县| 普兰店市| 旺苍县| 安新县| 平昌县| 嘉善县| 府谷县| 青田县| 剑阁县| 高雄县| 常州市| 苍梧县| 舟曲县| 开鲁县| 沙洋县| 新平| 宾阳县| 保山市| 易门县| 黄大仙区| 游戏| 小金县| 潼关县| 广宗县| 土默特左旗| 麦盖提县| 陈巴尔虎旗| 绥化市| 曲靖市|