0
点赞
收藏
分享

微信扫一扫

Hive安装、启动过程中遇到的问题及解决方案

zhaoxj0217 2022-03-20 阅读 37
hive

问题一:

问题原因:

当我们使用hadoop namenode -format格式化namenode时,会在namenode数据文件夹(这个文件夹为自己配置文件中dfs.name.dir的路径)中保存一个current/VERSION文件,记录clusterID,datanode中保存的current/VERSION文件中的clustreID的值是上一次格式化保存的clusterID,这样,datanode和namenode之间的ID不一致,datanode启动失败。

解决方案:

 如果dfs文件夹中没有重要的数据,那么删除dfs文件夹,再重新运行下列指令: (删除所有节点下的dfs文件夹,dfs目录在${HADOOP_HOME}/tmp/)

总结:

    初首次启动hadoop集群前,每次启动hadoop时,不要运行hadoop namenode -format命令,直接运行命令sbin/start-dfs.sh启动。

问题二:

解决方案:

然后找到如下属性:

把它修改成如下:

问题三:

解决方案:

修改Hadoop的core-site.xml配置文件

注意 :配置文件中的proxyuser要与登录hive时输入的username一致,比如都是root

修改后重启Hadoop:

举报

相关推荐

0 条评论