0
点赞
收藏
分享

微信扫一扫

第一章:环境搭建

陬者 2022-04-14 阅读 61

系列文章目录

第一章:环境准备


文章目录

前言

从现在开始记录自己的hadoop学习情况,计划博客一周一次


一、软件准备

  1. Vmare虚拟机
  2. centos7镜像
  3. Xshell
  4. Xftp

二、安装模板机

看我之前的一次博客
redhat安装
根据自己的硬件简单修改一下就行。
现在咱们假设安装完成。开启自己的虚拟机配置一下。

1.修改主机名

hostnamectl set-hostname hadoop100

在这里插入图片描述

2.修改IP

vim /etc/sysconfig/network-scripts/ifcfg-ens33 

在这里插入图片描述
进行如下修改
在这里插入图片描述

3.添加普通用户

useradd atguigu
passwd atguigu

为其添加root权限

vim /etc/sudoers

直接加一行
在这里插入图片描述

4.创建文件目录

mkdir /opt/module
mkdir /opt/software
chown atguigu:atguigu /opt/module
chown atguigu:atguigu /opt/software

以后这个目录用来存放咱们的dadoop文件

5.卸载自带的jdk

rpm -qa | grep -i java | xargs -n1 rpm -e

由于博主这里已经安装好了,就不演示卸载了。

6.配置网络

在这里插入图片描述
由于咱们使用的是静态网址DHCP可以不用设置。
在这里插入图片描述
在这里插入图片描述

然后修改windows网卡。

在这里插入图片描述
注意是Vmare8,别选错了。
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
然后重启网卡ping一下百度。
在这里插入图片描述

7.安装epel-release

yum install -y epel-release

8.关闭防火墙

systemctl stop firewalld
systemctl disable firewalld.service

9.配置hosts

因为大数据需要多台虚拟机,咱们也不能一直用IP来访问。

vim /etc/hosts

多写几个
在这里插入图片描述

192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
192.168.10.108 hadoop108

到这里模板虚拟机基本就修改完成了。
reboot重启即可。

三、复制虚拟机

注意首先在虚拟机关机的情况下进行复制。
选中虚拟机-右键-管理-克隆
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
自行修改名字和位置
在这里插入图片描述
我已经克隆过来,就不再做了
将克隆机的IP和主机名做相应修改就可以了。
我又克隆了hadoop102 103 104三台服务器。暂时是够了,不够再加。

四、Xshell链接

修改windows的hosts
在这里插入图片描述
在这里插入图片描述
在后边追加,然后用物理机ping一下虚拟机。这里以102为例。
在这里插入图片描述
可以看到用IP和域名都是可以的。确定可以联通后用Xshell链接。

在这里插入图片描述
在这里插入图片描述
然后连接。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
由于咱们以后的实验都是用Xshell连接的,也为了节省硬件资源,咱们把可视化关掉。

systemctl set-default runlevel3.target 

到此基本的环境准备就结束了。


总结

大数据和hadoop是离不开的,要慢慢学习。

举报

相关推荐

0 条评论