HBase开启LZO

时间:2023-03-09 08:05:39
HBase开启LZO

hbase只支持对gzip的压缩,对lzo压缩支持不好。在io成为系统瓶颈的情况下,一般开启lzo压缩会提高系统的吞吐量。但这需要参考具体的应用场景,即是否值得进行压缩、压缩率是否足够等等。



想要hbase支持lzo压缩,参照以下步骤:

1 首先要让系统支持lzo动态库,安装lzo-2.00以上版本:http://www.oberhumer.com/opensource/lzo/download/

2 默认安装完后应该在系统的/usr/local/lib/找到liblzo*等几个so

3 到http://code.google.com/p/hadoop-gpl-compression/下载lzo相关的native库

4 拷贝3中下载的 hadoop-gpl-compression-0.1.0-dev.jar 或 hadoop-gpl-compression-0.1.0.jar 到 hbase/lib以及hadoop/lib 中

5 拷贝3中下载的 lib/native/* 到 hadoop/lib/native 及 hbase/lib/native

6 确保以上4/5中的文件同步到了每台regionserver上

7 在core-site.xml中加上:

  1. <property>
  2. <name>io.compression.codecs</name>
  3. <value>com.hadoop.compression.lzo.LzoCodec,com.hadoop.compression.lzo.LzopCodec</value>
  4. </property>
  5. <property>
  6. <name>io.compression.codec.lzo.class</name>
  7. <value>com.hadoop.compression.lzo.LzoCodec</value>
  8. </property>

8 重启dfs及hbase,建表时使用:

  1. create 'mytable', {NAME=>'colfam:', COMPRESSION=>'lzo'}

此时这个column即为lzo了,往它读写数据会自动进行lzo压缩和解压缩。



P.S:

1 如果不清楚你的hbase是否配置好了支持lzo,可以执行以下命令检查之,如果不支持的话这个命令会提示你还缺什么文件:

  1. hbase org.apache.hadoop.hbase.util.CompressionTest hdfs://namenode:9000/test_path lzo

2 如果你和我一样使用了CDH3版本的hdfs,那么该版本的hdfs与hadoop-gpl-compression会有冲突,原因是CDH3修改了compression.java,增加了reinit()接口。

此时需要重新编译hadoop-gpl-compression工程,修改 src/java/com/hadoop/compression/lzo/LzoCompressor.java,增加以下行:

  1. public void reinit(Configuration conf) {
  2. // do nothing
  3. }

然后重新编译工程,将生成的jar包替换以上第4步中的那个jar包