一.下载hbase
以下是Hbase与Hadoop版本对应表
这边我们找到hbase的官网Apache HBase – Apache HBase™ Home
这边因为我的hadoop版本是3.3.1所以我下载的hbase版本是2.4.14,这边点击bin下载
完成这一步我们就下载好了我们的hbase
二.安装Hbase
通过xftp将安装包上传到云服务器
这边解压安装Hbase
tar -zxvf hbase-2.4.14-bin.tar.gz /usr/local
将解压的hbase重命名
cd /usr/local
mv 原文件名字 hbase
三.配置环境变量
vim /etc/profile
export JAVA_HOME=/usr/lib/jvm/java
export HADOOP_HOME=/usr/local/hadoop
export HBASE_HOME=/usr/local/hbase
export ZK_HOME=/usr/local/zookeeper/zookeeper-3.6.3
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=.:$HADOOP_HOME/bin:${JAVA_HOME}/bin:$HBASE_HOME/bin:$ZK_HOME/bin:$PATH
因为启动hbase之前需要提前启动hadoop hdfs zookeeper 所以这边我们外面配置了zookeeper,虽然hbase有自带的zookeeper,但是我们还是建议使用外部的,因为自带的版本很低,配置文档很老,所以不使用,这边如果您没有配置好zookeeper,这边给您提供链接
zookeeper伪分布式配置(云服务器配置)_浩淇害死猫的博客-CSDN博客
配置好环境变量,注意一定要
source /etc/profile
四.进行具体参数配置
这边进入hbase内部
cd $HBASE_HOME
这边我们先配置hbase-env.sh
主要是新增以下两点
export JAVA_HOME=/usr/lib/jvm/java
检查export HBASE_MANAGES_ZK=false是否为false,这边false是说明我们使用外部的zookeeper
下一步,配置vim hbase-site.xml,不要一口气复制,下面的那个公网地址,还有zookeeper的地址都要填你自己配置的
<property>
<name>hbase.rootdir</name>
<value>hdfs://您自己的公网地址:9000/hbase</value>
</property>
<!--是否是分布式环境-->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>123.60.91.69</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<!--冗余度-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>./tmp</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/zookeeper/zoo_1 </value>
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
五.开放端口
这边开放您的服务器的10030和60010端口
六.启动hbase,记住一定要先启动hadoop hdfs zookeeper之后再启动hbase,这边我前面都启动了,直接启动hbase就可以了
./bin/start-hbase.sh
这边如果出现
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/local/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.30.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/local/hbase/lib/client-facing-thirdparty/slf4j-reload4j-1.7.33.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
master running as process 3213. Stop it first.
xxx.xxx.xxx: regionserver running as process 3424. Stop it first.
请看博客:
解决hadoop与hbasejar包冲突问题_浩淇害死猫的博客-CSDN博客
启动成功之后,验证一下吧
hadoop fs -ls /hbase
hbase shell
scan 'hbase:meta'
输入您的公网:60010
ip:60010,出现以下界面
ip:16030
如果您这边页面有问题,请注意配置映射hosts
这边配置结束,感谢大家!