0
点赞
收藏
分享

微信扫一扫

Spark集群角色

吴陆奇 2022-02-07 阅读 72

在这里插入图片描述

  1. Driver:是一个JVM Process 进程,编写的Spark应用程序就运行在Driver上,由Driver进程执行;

  2. Master(ResourceManager):是一个JVM Process 进程,主要负责资源的调度和分配,并进行集群的监控等职责;

  3. Worker(NodeManager):是一个JVM Process 进程,一个Worker运行在集群中的一台服务器上,主要负责两个职责,一个是用自己的内存存储RDD的某个或某些partition;另一个是启动其他进程和线程(Executor),对RDD上的partition进行并行的处理和计算。

  4. Executor:是一个JVM Process 进程,一个Worker(NodeManager)上可以运行多个Executor,Executor通过启动多个线程(task)来执行对RDD的partition进行并行计算,也就是执行我们对RDD定义的例如map、flatMap、reduce等算子操作。

举报

相关推荐

0 条评论