0
点赞
收藏
分享

微信扫一扫

Hadoop与Spark注意事项

敬亭阁主 2022-01-06 阅读 123

Hadoop与Spark注意事项


1、Hadoop与Spark集群启动与停止都有两种方式

  • 一种是逐个服务器结点启动或停止(start-master.sh/start-worker.sh/stop-master.sh)
  • 另一种是在单个节点上一键启动或停止(start-all.sh/stop-all.sh)

2、 Hadoop与Spark集群使用一键启动或停止必须设置ssh免密登录

Hadoop与Spark各结点服务器之间通信使用ssh,若不设置免密登录会无法在单个节点一键启动/停止多节点。免密登录以及域名映射设置可在hadoop专题中找到对应设置文档。

3、Spark在启动集群时,所依赖组件需先行启动。

比如在HA集群下,Zookeeper与HDFS需在集群启动前启动。

举报

相关推荐

0 条评论