编译

编译的时候只创建一个机器即可,启动app-11,在编译的时候会占用大量的资源。

1、以hadoop用户登录。 命令:su – hadoop 在这里插入图片描述

2、切换到tmp根目录下。 命令:cd /tmp/ 在这里插入图片描述

3、创建编译spark目录。 命令:mkdir spark 在这里插入图片描述

4、创建Maven仓库。 命令:mkdir -p /home/hadoop/.m2/repository/org/spark-project 在这里插入图片描述

5、进入spark目录下。 命令:cd spark/ 在这里插入图片描述

6、下载编译安装包。 命令:wget https://archive.apache.org/dist/spark/spark-2.4.0/spark-2.4.0.tgz 在这里插入图片描述

7、解压。 命令:tar -xf spark-2.4.0.tgz 在这里插入图片描述

8、进入spark-2.4.0目录。 命令:cd spark-2.4.0 在这里插入图片描述

9、删除pom.xml文件。 命令:rm -rf pom.xml 在这里插入图片描述

10、切换到Spark的编译目录下。 命令:cd /tmp/Spark-stack/Spark/compile/ 在这里插入图片描述

11、将pom_hive3.xml拷贝到spark解压之后的目录下。 命令:cp pom_hive3.xml /tmp/spark/spark-2.4.0 在这里插入图片描述

12、将spark-project.zip解压到Maven库中。 命令:unzip /tmp/Spark-stack/Spark/compile/spark-project.zip -d /home/hadoop/.m2/repository/org/spark-project/ 在这里插入图片描述

13、进入到spark安装目录下。 命令:cd /tmp/spark/spark-2.4.0 在这里插入图片描述

14、将pom_hive3.xml改名为pom.xml。 命令:mv pom_hive3.xml pom.xml 在这里插入图片描述

15、设置Maven的OPTS使用内存的设置。 命令:export MAVEN_OPTS="-Xmx3g -XX:ReservedCodeCacheSize=512m" 在这里插入图片描述

16、开始编译。 命令:./dev/make-distribution.sh --name hadoop3.1.2 --tgz -Phadoop-3.1 -Dhadoop.version=3.1.2 -Phive -Dhive.version=1.21.2.3.1.2.0-4 -Dhive.version.short=1.21.2.3.1.2.0-4 -Phive-thriftserver -Pyarn 注:时间会很长。 在这里插入图片描述

安装Spark

再创建另外两台机器,确保三台机器正常运行。

下载安装包

1、在app-11上进行三台机器的认证。 命令:sudo /bin/bashcd /hadoop./initHosts.sh 在这里插入图片描述

2、启动集群。 命令:su – hadoopcd /hadoop/./startAll.sh 在这里插入图片描述

3、检查启动集群。 命令:jps 在这里插入图片描述

4、创建安装Spark的目录。 命令:mkdir Spark 在这里插入图片描述

5、进入到编译之后的目录下。 命令:cd /tmp/spark/spark-2.4.0 在这里插入图片描述

6、将spark的安装包拷贝到Spark的安装目录下。 命令:cp spark-2.4.0-bin-hadoop3.1.2.tgz /hadoop/Spark/ 在这里插入图片描述

7、进入到Spark安装目录下。 命令:cd /hadoop/Spark/ 在这里插入图片描述

8、解压安装包。 命令:tar -xf spark-2.4.0-bin-hadoop3.1.2.tgz 在这里插入图片描述

9、进入Spark目录,下载配置文件。 命令:cd /tmp/Spark-stack/Spark/ 在这里插入图片描述

10、拷贝基本配置文件。 命令:cp Bconf/* /hadoop/Spark/ 在这里插入图片描述

11、返回Spark的安装目录下。 命令:cd /hadoop/Spark/ 在这里插入图片描述

修改配置文件

12、进入解压之后的目录下。 命令:cd spark-2.4.0-bin-hadoop3.1.2 在这里插入图片描述

13、进入配置文件下。 命令:cd conf/ 在这里插入图片描述

14、将下载下来的slaves文件拷贝到该目录下。 命令:cp /hadoop/Spark/slaves ./ 在这里插入图片描述

15、将下载下来的spark-env.sh文件拷贝到该目录下。 命令:cp /hadoop/Spark/spark-env.sh ./ 在这里插入图片描述

安装Scala

16、切到Spark的安装目录下。 命令:cd /hadoop/Spark/ 在这里插入图片描述

17、下载Scala安装包。 命令:wget https://downloads.lightbend.com/scala/2.11.12/scala-2.11.12.tgz 在这里插入图片描述

18、返回hadoop目录。 命令:cd /hadoop/ 在这里插入图片描述

19、创建安装Scala目录。 命令:mkdir Scala 在这里插入图片描述

20、将下载的Scala安装包拷贝到Scala目录下。 命令:tar -xf Spark/scala-2.11.12.tgz -C Scala/ 在这里插入图片描述

21、给Scala赋予执行权限。 命令:chmod -R a+x /hadoop/Scala/scala-2.11.12/ 在这里插入图片描述

修改环境变量

22、修改环境变量。 命令:vi ~/.bashrc export SPARK_HOME=/hadoop/Spark/spark-2.4.0-bin-hadoop3.1.2 export PATH=${SPARK_HOME}/bin:$PATH export SCALA_HOME=/hadoop/Scala/scala-2.11.12 export PATH=${SCALA_HOME}/bin:$PATH 在这里插入图片描述

23、环境变量生效。 命令:source ~/.bashrc 在这里插入图片描述

24、检查环境变量生效。 命令:echo $PATH 在这里插入图片描述

清理工作

25、进入Spark安装目录下。 命令:cd Spark/ 在这里插入图片描述

26、删除没用的文件。 命令:rm -rf scala-2.11.12.tgz slaves spark-2.4.0-bin-hadoop3.1.2.tgz spark-env.sh 在这里插入图片描述

27、将config.conf拷贝到hadoop的根目录下。 命令:mv config.conf /hadoop/ 在这里插入图片描述

拷贝到集群的其他机器上

28、切换到hadoop的根目录下。 命令:cd /hadoop/ 在这里插入图片描述

29、将环境变量拷贝到其他机器上。 命令:scp ~/.bashrc hadoop@app-12:/hadoop/ scp ~/.bashrc hadoop@app-13:/hadoop/ 在这里插入图片描述

30、将Spark静默拷贝到其他机器上。 命令:for name in app-12 app-13; do scp -r -q Spark $name:/hadoop/; done 在这里插入图片描述

31、将Scala拷贝到其他机器上。 命令:for name in app-12 app-13; do scp -r -q Scala $name:/hadoop/; done 在这里插入图片描述

启动集群

32、进入Spark的安装目录下。 命令:cd /hadoop/Spark/spark-2.4.0-bin-hadoop3.1.2/ 在这里插入图片描述

33、启动集群。 命令:sbin/start-all.sh 在这里插入图片描述

34、检查集群。 命令:jps 注:Worker集群已经启动了。

在这里插入图片描述 详细学习内容可观看Spark快速大数据处理扫一扫~~~或者引擎搜索Spark余海峰 在这里插入图片描述