Zeppelin基本介绍-安装

浏览: 2594

最近在使用Zeppelin,我理解Zeppelin是一个交互式数据分析工具,像Jupter一样,可以直接执行SQL,Python和Spark等接口, 具体支持哪些可以看interprete的介绍(https://zeppelin.apache.org/docs/0.8.0/usage/interpreter/overview.html)

官网是https://zeppelin.apache.org/


下载准备

http://zeppelin.apache.org/download.html

如果不需要这么多interprete,可以只下载Binary package with Spark interpreter,小很多

如果只是本地的环境,需要先下载Spark(http://spark.apache.org/downloads.html)

安装和启动

先解压

tar -xvf spark-2.3.0-bin-hadoop2.7.tgz
tar -xvf zeppelin-0.8.0-bin-netinst.tgz

设置环境变量

export JAVA_HOME=/installdir/jdk1.8.0_91
export SPARK_HOME=/installdir/spark-2.3.0-bin-hadoop2.7
export LANG=zh_CN.UTF-8
unset LC_ALL

激活pyenv环境

pyenv activate python351

启动

cd /installdir/zeppelin-0.8.0-bin-netinst
bin/zeppelin-daemon.sh start

访问

http://ip:8080/#/

用户权限

conf/shiro.ini

默认权限把#去掉就好了

[users]
# List of users with their password allowed to access Zeppelin.
# To use a different strategy (LDAP / Database / ...) check the shiro doc at http://shiro.apache.org/configuration.html#Configuration-INISections
# To enable admin user, uncomment the following line and set an appropriate password.
admin = admin, admin
user1 = user1, role1, role2
user2 = user2, role3
user3 = user3, role2
具体 role的设置可以参考https://community.hortonworks.com/questions/139082/zeppelin-users-roles.html


安装新的interpreter

这步目前存在问题,可以安装但是没有配置成功。

./bin/install-interpreter.sh --list
./bin/install-interpreter.sh --name md,livy,jdbc

配置Spark需要的packagem,下面加了kafka的jar包和oracle的jdbc

conf/zeppelin-env.sh
export SPARK_SUBMIT_OPTIONS="--packages org.apache.spark:spark-sql-kafka-0-10_2.11:2.3.0 --jars /pythontest/jars/ojdbc7.jar"
推荐 0
本文由 seng 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册