0
点赞
收藏
分享

微信扫一扫

Hadoop集群搭建教程

火热如冰 2023-03-17 阅读 90


环境:

centos 6.5  (ip:192.168.80.100、192.168.80.101)

jdk 1.7

hadoop 2.8.4

ip

进程

192.168.80.100(master)

namenode

192.168.80.101(slave)

datanode

创建hadoop用户(2个节点均要创建):

$ su -

# useradd -m hadoop

# passwd hadoop

#visudo

为hadoop添加hadoop权限,在root ALL=(ALL)ALL下添加一行:

root    ALL=(ALL)       ALL

hadoop ALL=(ALL) ALL

切换回hadoop:

su hadoop

 

设置hosts,避免直接使用ip(两个节点均要设置):

在/etc/hosts修改如下:

127.0.0.1   master master

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.80.100  master master

192.168.80.101  slave1

为了方便,将三个节点分别设置如下hostname(重启会失效):

sudo hostname master

sudo hostname slave1

 

ssh免密登录设置(以下操作在master集器进行):

$ ssh-keygen          //全部默认回车

$ ssh-copy-id -i ~/.ssh/id_rsa.pub 192.168.80.101   //​​https://jingyan.baidu.com/article/c74d6000b499160f6a595de6.html​​

然后在master节点使用以下测试是否成功:

$ ssh 192.168.80.101

 

安装JDK:


 

安装hadoop:

先配置master 192.168.80.100,然后scp拷贝到slave。

$ cd

$ wget ​​http://apache.fayea.com/hadoop/common/hadoop-2.8.4/hadoop-2.8.4.tar.gz​​

$ tar -zxvf ​​hadoop-2.8.4.tar.gz​​

$ mv hadoop-2.8.4 hadoop

 

hadoop 的master节点配置:

需要配置六个文件(目录均在hadoop/etc/hadoop下):

core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、slaves、hadoop-env.sh

1 配置core-site.xml

<configuration>

  <property>

    <name>fs.default.name</name>

    <value>hdfs://192.168.80.100:9000</value>

  </property>

  <property>

    <name>hadoop.tmp.dir</name>

    <value>file:/home/hadoop/hadoop/tmp</value>

  </property>

</configuration>

 

2 配置hdfs-site.xml

<configuration>

  <property>

    <name>dfs.replication</name>

    <value>2</value>

  </property>

  <property>

    <name>dfs.namenode.name.dir</name>

    <value>file:/home/hadoop/hadoop/tmp/dfs/name</value>

  </property>

  <property>

    <name>dfs.datanode.data.dir</name>

    <value>file:/home/hadoop/hadoop/tmp/dfs/data</value>

  </property>

  <property>

    <name>dfs.namenode.secondary.http-address</name>

    <value>192.168.80.100:9001</value>

  </property>

       <property>

            <name>dfs.namenode.datanode.registration.ip-hostname-check</name>

            <value>false</value>

      </property>

</configuration>

 

3 配置mapred-site.xml

mv mapred-site.xml.template mapred-site.xml

<configuration>

  <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

  </property>

</configuration>

 

4 配置yarn-site.xml

<configuration>

    <property>

    <name>yarn.resourcemanager.hostname</name>

    <value>192.168.80.100</value>

  </property>

  <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

  </property>

  <property>

    <name>yarn.log-aggregation-enable</name>

    <value>true</value>

  </property>

  <property>

    <name>yarn.log-aggregation.retain-seconds</name>

    <value>604800</value>

  </property>

</configuration>

 

5 配置slaves

192.168.80.101

注:如果是多个,则添加多行ip。

 

6 配置hadoop-env.sh,修改java_home为对应地址

export JAVA_HOME=/usr/lib/java/jdk1.7.0_40

 

 

其他子节点slave配置:

此步依旧是在master节点操作

$ scp -r ~/hadoop hadoop@192.168.80.101:~/

 

配置当前用户hadoop环境变量(每个节点都要配置):

$ vim ~/.bashrc

$ source ~/.bashrc

$ echo $HADOOP_HOME   //输出看看是否生效

 

启动hadoop:

$ hdfs namenode -format       //格式化hdfs

$ hadoop/sbin/start-all.sh

注:这里遇到一个错误,修改/etc/hosts的127.0.0.1 master master,本教程配置已经修复,参考链接是​​http://lihongchao87.iteye.com/blog/1998347​​。

在master节点输入jps

Hadoop集群搭建教程_hdfs

在slave1节点输入jps

Hadoop集群搭建教程_hdfs_02

 

然后输入http://192.168.80.100:50070/dfshealth.html#tab-overview:

Hadoop集群搭建教程_xml_03

以上就安装成功了,如要测试则以下地址

注:如果遇到测试失败可删掉hadoop/tmp/dfs,然后重新格式化hdfs后再启动试试。

 


举报

相关推荐

0 条评论