点击左侧组件查看详情
Spark 集群将工作分为 Master 节点(管理)和 Worker 节点(工作),类似于 Hadoop 的 Master/Slave 结构。
每个 Spark 应用程序由一个 Driver 和多个 Executors 组成。一个 Executor 里的所有 Tasks 属于同一个应用程序。
💡 提示
尝试点击上方的按钮(运行在 Master / Worker / PC),观察 Driver 位置的变化!