第一步:Hbase安装
hadoop,zookeeper前面都安装好了
将hbase-1.1.3-bin.tar.gz上传到/usr/HBase目录下
[root@spark1 HBase]
[root@spark1 HBase]
[root@spark1 HBase]
[root@spark1 ~]
export HBASE_HOME=/usr/HBase/hbase-1.1
export PATH=$PATH:$HBASE_HOME/bin
[root@spark1 ~]
第二步:修改配置文件
编辑 hbase-env.xml
[root@spark1 conf]
export JAVA_HOME=/usr/java/jdk
export HBASE_CLASSPATH=/usr/HBase/hbase-1.1/conf
export HBASE_MANAGES_ZK=false 使用HBASE自带的zookeeper管理集群用true,自己安装的用false
编辑 hbase-site.xml
[root@spark1 hbase-1.1]
[root@spark1 hbase-1.1]# cd conf
[root@spark1 conf]# vi hbase-site.xml
<property>
<name>hbase.tmp.dirname>
<value>/usr/HBase/hbase-1.1/tmpvalue>
property>
<property>
<name>hbase.rootdirname>
<value>hdfs://spark1:9000/hbasevalue>
property>
<property>
<name>hbase.cluster.distributedname>
<value>truevalue>
property>
<property>
<name>hbase.zookeeper.quorumname>
<value>spark1,spark2,spark3value>
property>
编辑 regionservers
[root@spark1 conf]
spark2
spark3
第三步:搭建hbase集群
[root@spark1 usr]
[root@spark1 usr]
[root@spark1 ~]
[root@spark1 ~]
[root@spark2 ~]
[root@spark3 ~]
第四步:启动 / 关闭 Hbase 数据库集群
启动前我先把hadoop启动和zookeeper启动
[root@spark1 ~]# zkServer.sh start #三个节点都要启动
[root@spark1 ~]# zkServer.sh status #查看是否启动成功
[root@spark1 ~]# start-all.sh #启动hadoop
[root@spark1 ~]# start-hbase.sh
[root@spark1 ~]# stop-hbase.sh
第五步:验证启动
查看jps和hbase shell
[root@spark1 ~]
[root@spark1 ~]
status
version