安装Flink
1、创建集群

2、以root用户登录,进行三台机器的认证
命令:sudo /bin/bash、./initHosts.sh

3、以hadoop用户登录
命令:su – hadoop

4、启动集群
命令:cd /hadoop、./startAll.sh

5、创建安装Flink的目录
命令:mkdir /hadoop/Flink

6、进入该目录下
命令:cd /hadoop/Flink/

7、下载Flink安装包
命令:wget https://archive.apache.org/dist/flink/flink-1.10.1/flink-1.10.1-bin-scala_2.12.tgz

8、解压安装包
命令:tar -xf flink-1.10.1-bin-scala_2.12.tgz

修改配置文件
9、进入配置文件
命令:cd flink-1.10.1/conf/

10、打开文件
命令:vi flink-conf.yaml

11、修改JobManager的主机名为app-11

去掉注释,添加页面管理,修改端口号为9081,避免冲突

12、修改masters文件
命令:vi masters
防止web端口冲突
修改后:

13、修改slaves文件
命令:vi slaves

14、修改环境变量
命令:vi ~/.bashrc
export FLINK_HOME=/hadoop/Flink/flink-1.10.1
export PATH=${FLINK_HOME}/bin:$PATH

15、使环境变量生效
命令:source ~/.bashrc

其他机器的设置
16、创建安装Flink的安装目录
命令:ssh hadoop@app-12 "mkdir /hadoop/Flink"、
ssh hadoop@app-13 "mkdir /hadoop/Flink"

17、返回Flink的安装目录下
命令:cd /hadoop/Flink/

18、拷贝Flink
命令:scp -r -q flink-1.10.1 hadoop@app-12:/hadoop/Flink/、
scp -r -q flink-1.10.1 hadoop@app-13:/hadoop/Flink/

19、拷贝环境变量
命令:scp ~/.bashrc hadoop@app-12:~/、scp ~/.bashrc hadoop@app-13:~/

20、启动Flink
命令:cd flink-1.10.1、bin/start-cluster.sh
启动了两个进程,一个是standalonesession daemon,另一个是taskexecutor daemon

21、打开web控制页面,可以直接看到当前集群的状态

网址:app-11:9081

22、新建new terminal,以root用户登录,安装nc命令
命令:sudo /bin/bash、yum install nmap-ncat.x86_64
详细学习内容可观看Spark快速大数据处理扫一扫~~~或者引擎搜索Spark余海峰
