大数据: 完全分布式Hadoop集群-HBase安装

时间:2023-12-13 23:38:02

        HBase 是一个开源的非关系(NoSQL)的可伸缩性分布式数据库。它是面向列的,并适合于存储超大型松散数据。HBase适合于实时,随机对Big数据进行读写操作的业务环境。

 

本文基本环境:

Centos 7   Linux Master 3.10.0-229.el7.x86_64

Hadoop-2.7.1 完全分布式 3台机

Hbase-1.1.2  HBase官网下载 hbase-1.1.2-bin.tar.gz

三台虚拟机主机名:

Master  分配2G内存  namenode

Slaver1 分配1G内存  datanode

Slaver2 分配1G内存  datanode


进行软件部署

1. 使用 root 用户将 hbase-1.1.2-bin.tar.gz 包解压并放在 /home/app 下,给予 hadoop 用户权限 。

    tar –xvzf hbase-1.1.2-bin.tar.gz

    chown –R hadoop:hadoop hbase-1.1.2

    大数据: 完全分布式Hadoop集群-HBase安装

    添加环境变量

    export HBASE_HOME=/home/app/hbase-1.1.2

2. 编辑配置文件

vi  /home/app/hbase-1.1.2/conf/hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://Master:9000/hbase</value>
</property>
<!-- 完全分布式下为true,单机或伪分布为false -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master</name>
<value>hdfs://Master:60000</value>
</property>
<!-- 此处为连接zookeeper时的默认端口,之前我的zookeeper不是有hbase管理的,所以手工添加这个配置 -->
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
<description>Property fromZooKeeper's config zoo.cfg. The port at which the clients willconnect.</description>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>Master,Slaver1,Slaver2</value>
</property>
<!-- 此处为zookeeper的默认配置目录,不修改的时候hbase默认将目录放在/tem下面 -->
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/app/zookeeper-3.4.6/conf/data</value>
<description>Property from ZooKeeper's config zoo.cfg. The directory where the snapshot is stored. </description>
</property>
<!-- 这是设置hbase的web端 端口 -->
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
</configuration>

第一个属性指定本机的hbase的存储目录;

第二个属性指定hbase的运行模式,true代表全分布模式;

第四、五、六和第七个属性是关于Zookeeper集群的配置。

第八个属性是Hbase配置的web端访问端口,之前没有配不知道启动的默认端口,一直无法访问。


此处配置需要注意标红部分,然后 hbase.zookeeper.quorum 的value里面写主机名,当然最好是部署奇数个,偶数个不是不可以的,但是zookeeper集群是以宕机个数过半才会让整个集群宕机的,所以奇数个集群更佳。

其中首先需要注意 hdfs://Master:9000/hbase 这里,必须与你的Hadoop集群的 core-site.xml 文件配置保持完全一致才行,如果你Hadoop的 hdfs使用了其它端口,请在这里也修改。

再者就是Hbase该项并不识别机器IP,只能使用机器 hostname才可行,即若使用 Master 的 IP: 10.10.10.10 是会抛出java错误,至于具体的错误这里就不关注了。

 

修改regionservers,在regionservers文件中添加如下内容:

    Slaver1

    Slaver2

 

修改 hbase-env.sh 文件

export JAVA_HOME=/usr/java/jdk1.8.0_60,本处写法 /usr/java/latest 是指向默认安装的jdk的。

还需要添加 HBASE_HOME/HADOOP_HOME,这些框架都无法直接获取本地环境变量,不知是否存在某处错误引起

下面的环境变量解释:

    HBASE_MANAGES_ZK:代表由Hbase来启动关闭zookeeper,如果你的zookeeper是有自己手工启动的话,这里配false,且上面配置文件里面关于zookeeper的部分可以不配。

    最后的两个环境变量,注释已经解释了 JDK7 需要,JDK8完全可以去掉,我是JDK8,之前没看这个注释,后面出了错误才发现。

所以修改后的为这样:

大数据: 完全分布式Hadoop集群-HBase安装

修改完成后将该配置复制到其他机器

scp -r ./hbase-1.1.2 Slaver1:/home/app

scp -r ./hbase-1.1.2 Slaver2:/home/app

 

3. 修改hadoop目录下的etc/hadoop/hdfs-site.xml,添加下面参数

<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>

 

 

启动HBase


启动hbase时要确保hdfs已经启动。在主节点上执行: start-hbase.sh

    启动成功后集群会多出如下进程:

    Namenode:

    大数据: 完全分布式Hadoop集群-HBase安装

    Datanode:

    大数据: 完全分布式Hadoop集群-HBase安装


 

总结:

        这样本次安装Hbase-1.1.2 就完成了。整个过程没有太多难点。只要关注细节还是无脑配置。


Hbase 测试


1. 通过浏览器访问  http://10.10.10.10:60010 ,出现如下界面

大数据: 完全分布式Hadoop集群-HBase安装

2. 通过Hbase shell 测试

    a. 执行 hbase shell 命令

        大数据: 完全分布式Hadoop集群-HBase安装

    b. 创建一个 test 表 。


        此时在执行建表语句时发生一个错误 ERROR: Can't get master address from ZooKeeper; znode data == null,并且HMaster进程掉了

        查找资料发现有两种解释:

         1. HDFS的格式化存在问题,pid不一致导致的连接错误。

         2. 就是没有安装Zookeeper 导致的

        经过仔细分析,发现其他人在进行这步操作时没有提到要另外安装Zookeeper,所以先进行第一步测试。经过测试后发现启动后过了一会HMaster 进程还是掉了。查看下hbase的logs里面的Zookeeper日志,发现都是连接Slavers错误,后来想想这个Zookeeper应该要装,别人没提到可能是单机版或是提前就配好了这玩意儿。安装步骤这里就不写了,先去安装Zookeeper,待会再来继续进行测试。

         3. 经过一段时间的尝试把zookeeper3.4.6 安装成功后,Hbase 终于可以使用了。顺带解决了上面图片显示 slf4j 报错问题,这是这个jar冲突,选择其中一个删除就行了。然后Hbase 在执行 list 时报错,需要将 hadoop下的相关jar 复制到 hbase的lib下面替换,这一步很重要 !


      执行创建表的语句

       create ‘t1’,’l1’

       大数据: 完全分布式Hadoop集群-HBase安装

      在WEB端也可以查看表内容

      大数据: 完全分布式Hadoop集群-HBase安装

    

 

    

Hbase数据库常用操作命令


hbase(main):002:0> scan 't1'
ROW COLUMN+CELL
0 row(s) in 1.1780 seconds hbase(main):003:0> put 't1','row1','l1','value1'
0 row(s) in 0.4310 seconds hbase(main):004:0> scan 't1'
ROW COLUMN+CELL
row1 column=l1:, timestamp=1446370889665, value=value1
1 row(s) in 0.1010 seconds hbase(main):005:0> put 't1','exe1','l1','value2'
0 row(s) in 0.1040 seconds hbase(main):006:0> scan 't1'
ROW COLUMN+CELL
exe1 column=l1:, timestamp=1446370960268, value=value2
row1 column=l1:, timestamp=1446370889665, value=value1
2 row(s) in 0.0820 seconds hbase(main):007:0> get 't1','row1'
COLUMN CELL
l1: timestamp=1446370889665, value=value1
1 row(s) in 0.1660 seconds hbase(main):008:0> disable 't1'
0 row(s) in 3.2110 seconds hbase(main):009:0> drop 't1'
0 row(s) in 2.4040 seconds hbase(main):010:0> list
TABLE
0 row(s) in 0.0440 seconds hbase(main):011:0> exit

      这次全分布下的 Hbase 安装就算完结了...