问题一:
问题原因:
当我们使用hadoop namenode -format格式化namenode时,会在namenode数据文件夹(这个文件夹为自己配置文件中dfs.name.dir的路径)中保存一个current/VERSION文件,记录clusterID,datanode中保存的current/VERSION文件中的clustreID的值是上一次格式化保存的clusterID,这样,datanode和namenode之间的ID不一致,datanode启动失败。
解决方案:
如果dfs文件夹中没有重要的数据,那么删除dfs文件夹,再重新运行下列指令: (删除所有节点下的dfs文件夹,dfs目录在${HADOOP_HOME}/tmp/)
总结:
初首次启动hadoop集群前,每次启动hadoop时,不要运行hadoop namenode -format命令,直接运行命令sbin/start-dfs.sh启动。
问题二:
解决方案:
然后找到如下属性:
把它修改成如下:
问题三:
解决方案:
修改Hadoop的core-site.xml配置文件
注意 :配置文件中的proxyuser要与登录hive时输入的username一致,比如都是root
修改后重启Hadoop: