spark mongodb 集群部署
0
Spark主要负责处理mongo中的数据,怎么部署集群,需要部署yarn,Hadoop么?
没有找到相关结果
重要提示:提问者不能发表回复,可以通过评论与回答者沟通,沟通后可以通过编辑功能完善问题描述,以便后续其他人能够更容易理解问题.
1 个回复
regan - run! run! run! happy runner! 我是奔跑的小米~ 2017-04-18 回答
赞同来自:
2.Spark计算虽然不依赖hadoop,但是在Spark计算过程中很多的中间结果选择写入hdfs还是比较常见的,例如说shuffle过程、设置checkpoint等。
3.综上,建议还是部署hadoop集群吧,这样yarn资源调度框架也部署了,三全其美,何乐不为