spark 一般是和hadoop安装在相同的主机上吗,分开部署好不好?

0
已邀请:
0

MarsJ - 大数据玩家~DS 2016-07-27 回答

一般是安装在相同的机器上,大多情况下Spark的存储还是用的HDFS,所以放一起会好一些。
此外Hadoop和Spark可以共用计算节点。
在者,从维护的角度讲,维护1个集群比维护2个集群在物理机器上还是省时省力一些的。
建议放一起,除非特殊需求。

要回复问题请先登录注册