比如用下面的方式提交任务:
spark-submit --deploy cluster x.y.z a.jar
提交任务完了之后,程序就回终止返回.然后让 driver 在 cluster 上继续执行 Job.
假如说希望Job B
在Job A
执行完成之后执行,并且依然用cluster deploy mode
来提交任务,该如何做到呢?
1
B2 2018-12-18 15:33:34 +08:00
你将这两个 job 合成一个大的 job,提交一次不就可以了吗?
|