hive-1.2.1安装步骤

时间:2022-06-16 20:55:38

.Hive安装和配置

1.先决条件

已经安装好hadoop-2.4.1,hbase-1.0.0。

2.下载Hive安装包

当前Hive可到apache官网下载,选择的是hive-1.2.1。运行:

wget http://www-us.apache.org/dist/hive/hive-1.2.1/apache-hive-1.2.1-bin.tar.gz          然后将其解压到Hadoop所在的目录:/opt下。

解压:tar -zvxf apache-hive-1.2.1-bin.tar.gz /opt

重命名下:mv /opt/apache-hive-1.2.1-bin /opt/hive-1.2.1

3.配置系统环境变量/etc/profile

export HIVE_HOME=/opt/hive-1.2.1

export PATH=$PATH:$HIVE_HOME/bin:$HIVE_HOME/conf

source /etc/profile 使刚刚的配置生效

4.配置Hive

hive的配置文件放在$HIVE_HOME/conf下,里面有4个默认的配置文件模板

hive-default.xml.template                          
默认模板

hive-env.sh.template               
hive-env.sh默认配置

hive-exec-log4j.properties.template    exec默认配置

hive-log4j.properties.template              
log默认配置

        可不做任何修改hive也能运行,默认的配置元数据是存放在Derby数据库里面的,大多数人都不怎么熟悉,我们得改用mysql来存储我们的元数据,以及修改数据存放位置和日志存放位置等使得我们必须配置自己的环境,下面介绍如何配置。

        (1)创建配置文件,直接copy默认配置文件再修改即可,用户自定义配置会覆盖默认配置

         cp
$HIVE_HOME/conf/hive-default.xml.template $HIVE_HOME/conf/hive-site.xml

       cp $HIVE_HOME/conf/hive-env.sh.template
$HIVE_HOME/conf/hive-env.sh

       cp
$HIVE_HOME/conf/hive-exec-log4j.properties.template
$HIVE_HOME/conf/hive-exec-log4j.properties

       cp
$HIVE_HOME/conf/hive-log4j.properties.template
$HIVE_HOME/conf/hive-log4j.properties

        (2)修改 hive-env.sh

         vi
$HIVE_HOME/conf/hive-env.sh 

       export HADOOP_HOME=/opt/hadoop-2.4.1

       export HIVE_CONF_DIR=/opt/hive-1.2.1/conf

        (3)修改 hive-log4j.properties

          mkdir $HIVE_HOME/logs

        vi
$HIVE_HOME/conf/hive-log4j.properties

        hive.log.dir=/opt/hive-1.2.1/logs

        (4)修改 hive-site.xml

         vi
$HIVE_HOME/conf/hive-site.xml

     <configuration>

     <property>

      
<name>hive.metastore.warehouse.dir</name>

       <value>/opt/hive-1.2.1/warehouse</value>

     </property>

     <property>

      
<name>hive.exec.scratchdir</name>

       <value>/opt/hive-1.2.1/scratchdir</value>

     </property>

     <property>

      
<name>hive.querylog.location</name>

       <value>/opt/hive-1.2.1/logs</value>

     </property>

     <property>

      
<name>javax.jdo.option.ConnectionURL</name>

       <value> jdbc:mysql://localhost:3306/hivedb?createDatabaseIfNotExist=true</value>

     </property>

     <property>

      
<name>javax.jdo.option.ConnectionDriverName</name>

       <value>com.mysql.jdbc.Driver</value>

     </property>

     <property>

      
<name>javax.jdo.option.ConnectionUserName</name>

       <value>*****(根据自己的用户名填)</value>

     </property>

     <property>

      
<name>javax.jdo.option.ConnectionPassword</name>

       <value>*****(根据自己的密码填)</value>

     </property>

     <property>

      
<name>hive.aux.jars.path</name>

      <value>file:///opt/hive-1.2.1/lib/hive-hbase-handler-1.2.1.jar,file:///opt/hive-1.2.1/lib/hbase-client-1.0.0.jar,file:///opt/hive-1.2.1/lib/hbase-common-1.0.0.jar,file:///opt/hive-1.2.1/lib/hbase-common-1.0.0-tests.jar,file:///opt/hive-1.2.1/lib/hbase-protocol-1.0.0.jar,file:///opt/hive-1.2.1/lib/hbase-server-1.0.0.jar,file:///opt/hive-1.2.1/lib/htrace-core-3.1.0-incubating.jar,file:///opt/hive-1.2.1/lib/zookeeper-3.4.6.jar,file:///opt/hive-1.2.1/lib/protobuf-java-2.5.0.jar,file:///opt/hive-1.2.1/lib/guava-12.0.1.jar</value>

     </property>

</configuration>

        下面解释下一些重要的配置项:

         hive.metastore.warehouse.dir:指定hive的数据存储目录,指定的是HDFS上的位置,默认值:/user/hive/warehouse,为了便于管理,hive-1.2.1文件下创建文件warehouse。

         hive.exec.scratchdir:指定hive的临时数据目录,默认位置为:/tmp/hive-${user.name}。为了便于管理,hive-1.2.1文件下创建文件scratchdir。

               javax.jdo.option.ConnectionURL:指定hive连接的数据库的数据库连接字符串

         javax.jdo.option.ConnectionDriverName:指定驱动的类入口名称

         hive.aux.jars.path:是与hbase整合的时候需要用到的jar包,必须加上

5.复制hbase库到hive下面

         cp $HBASE_HOME/lib/hbase-*
$HIVE_HOME/lib/

         cp
$HBASE_HOME/lib/htrace-core-3.1.0-incubating.jar $HIVE_HOME/lib/

         cp
$HBASE_HOME/lib/zookeeper-3.4.6.jar $HIVE_HOME/lib/

提示已有文件,是否覆盖,选y。

         cp
$HBASE_HOME/lib/protobuf-java-2.5.0.jar $HIVE_HOME/lib/

         cp $HBASE_HOME/lib/guava-12.0.1.jar $HIVE_HOME/lib/

并删除了,原HIVE_HOME/lib/下的guava-14.0.1.jar。

6.上传jdbc jar包

         默认hive使用Derby数据库存放元数据,并且也集成了Derby数据库及连接驱动jar包,但此处我们换成了MySQL作为数据库,所以还必须得有MySQL的JDBC驱动包。

          由于之前系统已经有jdbc jar包,且在cd /usr/share/java目录下,直接将驱动包复制到$HIVE_HOME/lib下:cp mysql-connector-java-5.1.17.jar $HIVE_HOME/lib        

 7.安装并配置MySQL

          由于已经安装好mysql,故可以直接使用。

启动hive在进行检测的时候 ,系统提示:

hive-1.2.1安装步骤

经查阅资料,发现hive-1.2.1与hbase-1.0.0有版本不兼容的问题,需要重新编译hive-hbase-handle-1.2.1.jar。

8.编译hive-hbase-handle-1.2.1.jar

(1)下载hive-1.2.1源码

在虚拟机中,用wget命令在http://www-eu.apache.org/dist/hive/中下载apache-hive-1.2.1-src.tar.gz,下载好后,把下载好的文件复制到Windows系统中。

(2)在Windows系统中,用eclipse建立编译工程,名称随便,普通Java project,这里以hivehbase为名。

hive-1.2.1安装步骤

(3)将hive源码中的hbase-hadler部分导入到编译项目中

选择src右击import-->General-->FileSytem,下一步

hive-1.2.1安装步骤

找到下载解压的hive源码目录,找到hbase-hadler目录,在scr中选择java目录,确认后保证包名以org开头

 hive-1.2.1安装步骤

(4)然后开始给eclipse项目下,创建一个Referenced Libraries目录,加入相关的jar包,确保顺利通过编译,根据hive的版本,导入的jar包也会有所差异,直到项目没有小红叉。

需要引入的jar包,如下图所示,这些包在虚拟机中的/opt/hive-1.2.1/lib和/opt/hbase-1.0.0目录下都有,直接复制拷贝过来即可,注意的是,jar的版本号会根据你所使用的hadoop、hbase、hive版本号,有所变化。

具体需要引入的jar包如下图:

hive-1.2.1安装步骤

(5)编译打包

选择项目src目录,右击Export-->Java-->JAR file-->Next,选择项目下的src,并设置导出路径,名称可以直接写作hive-hbase-handler-1.2.1.jar其他默认,Finish后即可。

hive-1.2.1安装步骤

然后把导出的hive-hbase-handler-1.2.1.jar 包放入hive-1.2.1安装路径的lib下,覆盖原来的包。此时,hive-1.2.1安装成功。

二.验证hive和hbase的整合

(1)开始时:

hive为空

hive-1.2.1安装步骤

hbase为空

hive-1.2.1安装步骤

(2)执行

hive-1.2.1安装步骤

(3)对比发生变化

hbase显示新建表xyz

hive-1.2.1安装步骤

hive显示新建表hbase_table_1

hive-1.2.1安装步骤

(4)通过hbase添加数据

在hbase中插入一条记录

hive-1.2.1安装步骤

分别查看hbase和hive表发生的变化:

  1. hbase变化

hive-1.2.1安装步骤

2.hive变化

hive-1.2.1安装步骤

.Hive网络接口(Web
UI)

1.查看hive-site.xml中有关hwi的内容,默认是

hive-1.2.1安装步骤

将hive.hwi.war.file的值修改为/lib/hive-hwi-1.2.1.war

2.下载hive-1.2.1源码包

wget http://www-us.apache.org/dist/hive/hive-1.2.1/ apache-hive-1.2.1-src.tar.gz

tar -zxvf apache-hive-1.2.1-src.tar.gz

cd apache-hive-1.2.1-src

cd hwi/web

zip hive-hwi-1.2.1.zip ./*

再更改后缀名为war,复制到HIVE_HOME/lib/

mv hive-hwi-1.2.1.zip hive-hwi-1.2.1.war

mv hive-hwi-1.2.1.war $HIVE_HOME/lib

3.拷贝tools包

cp /usr/java/jdk1.7.0_51/lib/tools.jar /opt/hive-1.2.1/lib

如果不进行此步骤,将无法启动界面。

配置完成后,开启服务:

hive-1.2.1安装步骤

并且可以查看到HIVE的网页界面:

hive-1.2.1安装步骤

.Hivejdbc接口

vi
$HIVE_HOME/conf/hive-site.xml

hive-1.2.1安装步骤

将上标签修改为:

<property>

<name>hive.server2.thrift.bind.host</name>

<value>172.16.0.147</value>

<description>Bind
host on which to run the HiveServer2 Thrift interface.

Can be overridden by
setting $HIVE_SERVER2_THRIFT_BIND_HOST</description>

</property>

测试hiveserver2,出现:

hive-1.2.1安装步骤

修改hadoop 配置文件/opt/hadoop-2.4.1/etc/hadoop里的core-site.xml,加入

<property>

<name>hadoop.proxyuser.root.hosts</name>

<value>*</value>

</property>

<property>

<name>hadoop.proxyuser.root.groups</name>

<value>*</value>

</property>

重启hadoop

将hadoop退出安全模式:

hadoop dfsadmin
-safemode leave

重新启动:

hive-1.2.1安装步骤

启动成功!

遇到的问题一:

hive-1.2.1安装步骤

解决方案:删除/opt/hive-2.0.0/lib/log4j-slf4j-impl-2.4.1.jar

遇到的问题二:

hive-1.2.1安装步骤

解决方案:删除/opt/hive-2.0.0/lib/hive-jdbc-2.0.0-standalone.jar

遇到的问题三:

hive-1.2.1安装步骤

查阅http://blog.csdn.net/zwx19921215/article/details/42776589后,采用如下方案:

1.查看hive-site.xml配置,会看到配置值含有"system:java.io.tmpdir"的配置项

hive-1.2.1安装步骤

2.新建文件夹/opt/hive-1.0.1/iotmp

3.将含有"system:java.io.tmpdir"的配置项的值修改为如上地址

遇到的问题四:

hive-1.2.1安装步骤

默认的是Derby类型,但是只支持单用户,删除/root/metastore_db,即可。

遇到的问题五:

hive-1.2.1安装步骤

hadoop下的jline版本较老,用hive中的jline将其替换

cp /opt/hive-1.2.1/lib/jline-2.12.jar
/opt/hadoop-2.4.1/share/hadoop/yarn/lib/

为防止误删,将老版本jline改名

mv
/opt/hadoop-2.4.1/share/hadoop/yarn/lib/jline-0.9.94.jar
/opt/hadoop-2.4.1/share/hadoop/yarn/lib/old-jline-0.9.94.jar

遇到的问题六:

hive-1.2.1安装步骤

但是有提示metastore.local不存在,解决方案参考下图:

hive-1.2.1安装步骤

经测试:

hive-1.2.1安装步骤

注:此项是配置在hive-site.xml中,解决报错之后就没有在之前的安装步骤写入此项。