麻烦问下高手 利用clauder manager启动spark后执行以下语句报错

0
麻烦问下高手 利用clauder manager启动spark后执行 [root@slave1 bin]# ./spark-shell -master spark://slave1:7077 scala> sqlContext.sql("show tables").show  出现这样的问题了: 16/10/18 01:34:35 WARN scheduler.TaskSchedulerImpl: Initial job has not accepted any resource
已邀请:
0

Bob - 同程旅游大数据+BI 架构师 2016-10-21 回答

出现这个问题可能是内存不足了,建议使用 --driver-memory --executor-memory 试试内存的设置

要回复问题请先登录注册