0
点赞
收藏
分享

微信扫一扫

Hadoop集群部署

腊梅5朵 2022-02-27 阅读 98

Hadoop集群部署

一、环境准备

(0)需要准备三台虚拟机,名称为Hadoop(102,103,104),ip地址为192.168.10.(102、103、104)。
(1)关闭虚拟机防火墙

[root@hadoop100 ~]# systemctl stop firewalld (关闭防火墙)
[root@hadoop100 ~]# systemctl disable firewalld.service (关闭防火墙开机自启)

注意:可以用 systemctl status firewalld 命令查看防火墙状态
(2)设置虚拟机ip

  1. 在VMware中设置如下内容
    在这里插入图片描述
    在这里插入图片描述
  2. 在windows中做如下设置
    在这里插入图片描述
    在这里插入图片描述
    右键属性
    在这里插入图片描述

点击属性配置如下
在这里插入图片描述
3. 虚拟机配置

将虚拟机ip改为静态ip

[root@hadoop100 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33

在这里插入图片描述
(3)修改克隆机主机名并配置 Linux 克隆机主机名称映射 hosts 文件

[root@hadoop100 ~]# vim /etc/hostname
改为
hadoop102
[root@hadoop100 ~]# vim /etc/hosts
添加
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104

(4)在/opt/目录下创建software和module两个目录

[root@hadoop100 ~]# mkdir /opt/module  #安装软件所用目录
[root@hadoop100 ~]# mkdir /opt/software #存放软件所用目录

(5)卸载现有 JDK

[root@hadoop100 ~]# rpm -qa | grep -i java | xargs -n1 rpm -e
--nodeps

➢ rpm -qa:查询所安装的所有 rpm 软件包
➢ grep -i:忽略大小写
➢ xargs -n1:表示每次只传递一个参数
➢ rpm -e –nodeps:强制卸载软件

(6)重启虚拟机

[root@hadoop100 ~]# reboot

(7) 克隆虚拟机haoop103,hadoop104
更改vim /etc/sysconfig/network-scripts/ifcfg-ens33中的ip地址,并更改主机名,然后重启

二、在hadoop102中安装jdk

(1)版本jdk1.8.0_181
(2)用 XShell 传输工具将 JDK 导入到 opt 目录下面的 software 文件夹下面
(3)解压 JDK 到/opt/module 目录下

[root@hadoop102 software]$ tar -zxvf jdk-8u212-linuxx64.tar.gz -C /opt/module/

(4)配置 JDK 环境变量

  1. 在/etc/profile.d/目录下创建my_env.sh
  2. 在my_env.sh中添加如下内容
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_181
export PATH=$PATH:$JAVA_HOME/bin
  1. source 一下/etc/profile 文件,让新的环境变量 PATH 生效
[root@hadoop102 ~]$ source /etc/profile
  1. 测试 JDK 是否安装成功
[root@hadoop102 ~]$ java -version

如果能看到以下结果,则代表 Java 安装成功。
java version “1.8.0_212”

三、在 hadoop102 安装 Hadoop

安装hadoop

(1)版本hadoop-3.1.3
(2)用 XShell 文件传输工具将 hadoop-3.1.3.tar.gz 导入到 opt 目录下面的 software 文件夹下

(3)解压安装文件到/opt/module 下面

[atguigu@hadoop102 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

(4)将 Hadoop 添加到环境变量
(2)打开/etc/profile.d/my_env.sh 文件

  1. 在my_env.sh中添加如下内容
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
  1. source 一下/etc/profile 文件,让新的环境变量 PATH 生效
  2. 测试是否安装成功
[root@hadoop102 profile.d]# hadoop version
Hadoop 3.1.3

查看 Hadoop 目录结构

[root@hadoop102 hadoop-3.1.3]# ll
总用量 176
drwxr-xr-x. 2 zx zx 183 9月 12 2019 bin
drwxr-xr-x. 3 zx zx 20 9月 12 2019 etc
drwxr-xr-x. 2 zx zx 106 9月 12 2019 include
drwxr-xr-x. 3 zx zx 20 9月 12 2019 lib
drwxr-xr-x. 4 zx zx 288 9月 12 2019 libexec
-rw-rw-r–. 1 zx zx 147145 9月 4 2019 LICENSE.txt
-rw-rw-r–. 1 zx zx 21867 9月 4 2019 NOTICE.txt
-rw-rw-r–. 1 zx zx 1366 9月 4 2019 README.txt
drwxr-xr-x. 3 zx zx 4096 9月 12 2019 sbin
drwxr-xr-x. 4 zx zx 31 9月 12 2019 share

重要目录
(1)bin 目录:存放对 Hadoop 相关服务(hdfs,yarn,mapred)进行操作的脚本
(2)etc 目录:Hadoop 的配置文件目录,存放 Hadoop 的配置文件
(3)lib 目录:存放 Hadoop 的本地库(对数据进行压缩解压缩功能)
(4)sbin 目录:存放启动或停止 Hadoop 相关服务的脚本
(5)share 目录:存放 Hadoop 的依赖 jar 包、文档、和官方案例

举报

相关推荐

0 条评论