0
点赞
收藏
分享

微信扫一扫

spark部署测试



文章目录

  • ​​1、下载并解压spark包,注意要和hadoop版本适配。​​
  • ​​2、修改配置文件。​​
  • ​​3、测试服务。​​
  • ​​4、配置高可用spark。​​
  • ​​5、测试高可用spark。​​
  • ​​6、测试hadoop01的单点故障。​​

1、下载并解压spark包,注意要和hadoop版本适配。

[root@hadoop01 software]# tar -xzvf spark-3.2.0-bin-hadoop2.7.tgz -C /export/servers/

spark部署测试_big data

2、修改配置文件。

spark部署测试_big data_02

[root@hadoop01 conf]# vim spark-env.sh

#配置java环境变量
export JAVA_HOME=/export/servers/jdk

#指定Master的IP
export SPARK_MASTER_HOST=hadoop01

#指定Master端口
export SPARK_MASTER_PORT=7077

spark部署测试_hadoop_03

[root@hadoop01 conf]# scp -r /export/servers/spark/ hadoop02:/export/servers/
[root@hadoop01 conf]# scp -r /export/servers/spark/ hadoop03:/export/servers/

3、测试服务。

spark部署测试_高可用_04

spark部署测试_big data_05

spark部署测试_高可用_06

spark部署测试_big data_07

4、配置高可用spark。

添加环境变量

export SPARK_HOME=/export/servers/spark
export PATH=$PATH:$SPARK_HOME/bin

修改配置文件,注销指定IP,添加如下内容。

[root@hadoop01 conf]# vim spark-env.sh

spark部署测试_spark_08

[root@hadoop01 conf]# scp spark-env.sh hadoop02:/export/servers/spark/conf/
spark-env.sh 100% 4778 5.2MB/s 00:00
[root@hadoop01 conf]# scp spark-env.sh hadoop03:/export/servers/spark/conf/
spark-env.sh

5、测试高可用spark。

各节点zkServer.sh start启动zookeeper

然后启动spark

spark部署测试_hadoop_09

spark部署测试_spark_10

在hadoop02中单独启动master服务,因为现在mater服务在hadoop01中式alive的,所以这一部分是standby,随时准备好当hadoop01故障时进行转换。

spark部署测试_高可用_11

spark部署测试_big data_12

6、测试hadoop01的单点故障。

先停掉hadoop01的master服务

spark部署测试_big data_13

经过了zookeeper高可用的选举,最终hadoop02继承了hadoop01.

spark部署测试_hadoop_14

spark部署测试_hadoop_15



举报

相关推荐

0 条评论