







下载地址 :https://www.apache.org/dyn/closer.lua/spark/spark-2.2.0/spark-2.2.0.tgz

我们把spark放在节点2上

解压




下面我们把jdk换成1.8的



配置环境变量


使环境变量生效

重启后

另外两个节点的做法一样,这里就不多说了

上传maven包

解压


配置maven的环境变量


#java
export JAVA_HOME=/opt/modules/jdk1.8.0_60
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
#maven
export MAVEN_HOME=/opt/modules/apache-maven-3.3.9
export PATH=$PATH:$MAVEN_HOME/bin
export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=1024M -XX:ReservedCodeCacheSize=1024M"
使其环境变量生效







找到这一串,把他删除掉

改成

VERSION=2.2.0
SCALA_VERSION=2.11.8
SPARK_HADOOP_VERSION=2.6.0
SPARK_HIVE=1


我们可以参考官网的教程说明
http://spark.apache.org/docs/2.2.0/building-spark.html

我们运行一下

./dev/make-distribution.sh --name custom-spark --tgz -Phadoop-2.6 -Phive -Phive-thriftserver -Pyarn
这个过程非常长,网络好机器配置好的话也许一个小时吧,如果中途网络不好失败的话就重新来吧
我自己这里也是经过了一次失败之后,再重新运行一次这条语句就可以了,当看到build success字样的时候就说明成功了


在spark的目录下会多了一个踏包

解压

改一下名字




解压

接下来配置环境变量


#scala
export SCALA_HOME=/opt/modules/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin
使环境变量生效








读取文件

统计有多少行

文件的第一行

前4行


我们先新建一个数据文件


把文件读取进来

用空格切分

以key value对的方式显示出来

这里报错

下面我们打开spark的系统监控页面


创建缓存

使用一下

这里就有反馈了










