Hadoop + Hive + Spark 完整安装攻略

浏览: 3997

Screen Shot 2017-11-09 at 09.58.09.png

  • download files
    mkdir files
    sh download_file.sh

Screen Shot 2017-11-09 at 10.01.47.png

Screen Shot 2017-11-09 at 10.04.25.png

  • vagrant up
    这边会 up 很久

Screen Shot 2017-11-09 at 10.11.05.png

Screen Shot 2017-11-09 at 10.29.27.png

  • 一切正常运行,有红字跳出来也不用怕
  • copy ssh key 
    进入 master 的 root 帐号,把 id_rsa.pub 复制到 authorized_keys 里

Screen Shot 2017-11-09 at 10.41.28.png

接着把 public key 丢给 node

Screen Shot 2017-11-09 at 10.42.38.png

Screen Shot 2017-11-09 at 10.43.46.png

Screen Shot 2017-11-09 at 10.44.25.png

回到 master 后确认连线状况

Screen Shot 2017-11-09 at 10.47.08.png

HADOOP

  • Format namenode
    hdfs namenode -format

Screen Shot 2017-11-09 at 10.48.26.png

  • 启动 Hdfs 
    $HADOOP_PREFIX/sbin/start-dfs.sh

Screen Shot 2017-11-09 at 10.50.27.png

  • 确认 
    hdfs admin -report

Screen Shot 2017-11-09 at 11.27.18.png

HIVE

  • 启动 mysql
  • service mysqld start

Screen Shot 2017-11-09 at 11.29.46.png

  • 找到暂时密码
    sudo grep ‘temporary password’ /var/log/mysqld.log

Screen Shot 2017-11-09 at 11.30.54.png

  • 用刚刚的密码进入 mysql

Screen Shot 2017-11-09 at 11.31.34.png

  • 变更 root 密码

ALTER USER ‘root’@’localhost’ IDENTIFIED BY ‘!QAZ2wsx’;

  • 执行 Hive 的 Schema Tool

schematool -initSchema -dbType mysql

Screen Shot 2017-11-09 at 11.33.24.png

  • 启动 hive metastore

hive — service metastore &

Screen Shot 2017-11-09 at 11.33.44.png

  • 启动 Hive

Screen Shot 2017-11-09 at 11.34.16.png

SPARK

  • 建立 spark 所需路径(在 HDFS里)

hadoop fs -mkdir /user
hadoop fs -mkdir /user/spark

  • 确认 Slaves

Screen Shot 2017-11-09 at 11.35.04.png

  • 启动集群

Screen Shot 2017-11-09 at 11.35.44.png

  • 启动 Spark

Screen Shot 2017-11-09 at 11.45.19.png

确认服务

Screen Shot 2017-11-09 at 11.36.11.png

9000: Hadoop Master

50070: Hadoop UI

9083: Hive metastore

8080: Spark UI

7077: Spark Master


安裝環境本來就不容易,一鍵安裝是多少功夫的累積.這些功夫都得靠自己練,自己去看 Log 檔,自己去看錯誤訊息,多嘗試才有辦法練成.

推荐 3
本文由 bryanyang 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册