Spark job server context 管理问题
0
请问 使用spark job server 提交spark 任务,想编写代码将提交任务自动化,不知道如何管理已经创建的context,比如已经创建context1 ,context2 先进来的任务使用context1 执行,后进来的任务2使用context 2 执行,在两个任务执行时,又进来了任务3,任务3如何得知所有context已经在使用,任务执行完后,如何告知context 已经使用完。
没有找到相关结果
重要提示:提问者不能发表回复,可以通过评论与回答者沟通,沟通后可以通过编辑功能完善问题描述,以便后续其他人能够更容易理解问题.
1 个回复
regan - run! run! run! happy runner! 我是奔跑的小米~ 2017-02-19 回答
赞同来自: