spark环境搭建

浏览: 1760

准备工作 

一套搭建好的hadoop环境

下载scala、spark安装包

1、安装scala

tar -xzvf scala-2.12.3.tgz

2、安装spark

tar -xzvf spark-2.2.0-bin-hadoop2.7.tgz

3、修改 、/etc/profile文件

JAVA_HOME=/usr/java/jdk1.8.0_144/
HADOOP_HOME=/opt/hadoop-2.7.4
SCALA_HOME=/opt/scala-2.12.3
SPARK_HOME=/opt/spark-2.2.0-bin-hadoop2.7
PATH=$PATH:$JAVA_HOME/bin:/usr/bin:/usr/sbin:/bin:/sbin:/usr/X11R6/bin:$HADOOP_HOME/bin:$PATH:$SPARK_HOME/bin:$SCALA_HOME/bin
CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
export JAVA_HOME PATH CLASSPATH

4、启动spark

/opt/spark-2.2.0-bin-hadoop2.7/sbin/start-all.sh

5、验证

http://主机IP:8080

 截图201781617502.png


打开spark所在目录 运行spark-shell


推荐 2
本文由 liliwu 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册