Spark运行后kerveros无法认证,hadoop登录失败

浏览: 1575

原因:

JavaSparkContext sc = null;

这个类在开启以后会一直存在后台,如果不执行sc.stop();方法,将一直运行到整个JVM关闭。

因此在此之后需要用到hadoop的话,必须将 
JavaSparkContext
执行停止和关闭操作。

if(null!=sc)sc.stop();sc.close();

推荐 0
本文由 bacckom 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册