Spark的提交流程如下:
用户编写Spark应用程序,并将其打包成一个JAR文件。
用户通过Spark提供的命令行工具或API将该JAR文件提交到Spark集群。
集群管理器(如YARN、Mesos或Standalone)接受Spark应用程序的提交请求,并启动一个Application Master进程来管理该应用程序。
Application Master向集群请求资源(CPU、内存等)并启动Executor进程来执行应用程序的任务。
Executor进程在集群中的某个节点上运行,并从Application Master接收任务。
应用程序的任务在Executor进程中执行,并将结果返回给Application Master。
应用程序执行完成后,Application Master会通知集群管理器释放资源并关闭自身。
用户可以通过Spark的监控工具或日志查看应用程序的执行情况和结果。
辰迅云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>
推荐阅读: spark kerberos 如何优化配置