搭建单节点Hadoop应用环境

时间:2023-03-08 17:30:42
搭建单节点Hadoop应用环境

虚拟机: VirtualBox 5

Server操作系统: 
Ubuntu Server 14.04.3 LTS

如果对虚拟机空间和性能不做考虑, 且不习惯用Linux命令, 你也可以使用Ubuntu Desktop版本, 配合VirtualBox的增强功能包, 操作简便, 可实现和主机相互拖拽文件, 以及共享剪贴板等等, 但虚拟机的资源消耗较大.
也可以使用CentOS 6的各个版本, 比如LiveCD版.

Hadoop版本: 2.6.2

准备工作

添加Hadoop专用用户

optional, 出于安全性和便于管理的角度考虑, 建议单独为hadoop添加用户. 本例中用户名为hm

安装相关软件包:

  • SSH:   本例使用openssh-server, 和openssh-client(一般Linux发行版都有默认安装)
  • JAVA: 本例使用openjdk-7-jdk (如果有多个openjdk版本, 请选择devel版本, 否则jps命令有可能无法使用)

检查软件包是否已经安装

输入命令

hm@u14s64:~$ dpkg -l|grep -e ssh

可以查看ssh软件包的安装状态. ii代表已经成功安装. 同理, 把ssh换做jdk即可查看jdk的安装情况.

如果尚未安装上述软件包, 使用命令apt-get进行安装.

hm@u14s64:~$ sudo apt-get install openssh-server
hm@u14s64:~$ sudo apt-get install openjdk-7-jdk

如报错

E: Package 'openssh-server' has no installation candidate

运行一下apt-get update即可. 仍然有问题, 可以尝试去更新/etc/apt/source.list, 换个好一点的源, 比如mirrors.163.com/ubuntu等等.

验证安装结果

1. jps - JVM进程查看工具, 将来要用于查看Hadoop守护进程

hm@u14s64:~$ jps

应该可以看到至少有jps进程存在.

2. ssh - 单机免密码登录 (hadoop伪分布模式和分布模式需要用到)

hm@u14s64:~$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
hm@u14s64:~$ cat .ssh/id_dsa.pub >> .ssh/authorized_keys
hm@u14s64:~$ ssh localhost

成功登录后, 输入exit退出当前ssh登录. 以后再输入ssh localhost就可以直接无密码登录.

如果再次登录仍需要密码, 可能是authorized_keys的权限设置不对, 请修改后再测试

hm@u14s64:~$ sudo chmod 600 .ssh/authorized_keys

安装Hadoop

下载解压

从官网下载安装包, 这里使用2.6.2版本, 通过psftp把hadoop安装包上传到本server. e.g. /home/hm/hadoop-2.6.2.tar.gz

解压文件到你的安装目录, 这里我把它安装在/home/hm/hadoop目录下:

hm@u14s64:~$ tar -xzvf hadoop-2.6.2.tar.gz -C ~
hm@u14s64:~$ mv hadoop-2.6.2 hadoop

确认权限

输入ls -la 确认hadoop文件夹及包含的所有文件所属的user和group是hm.

hm@u14s64:~$ ls -la
hm@u14s64:~$ ls -la hadoop/

如果不是, 输入下面的命令改变拥有权: (保证hm用户可以正常运行hadoop的各个命令)

hm@u14s64:~$ sudo chown -R -v hm:hm hadoop/

修改环境变量

hm@u14s64:~/hadoop$ vi etc/hadoop/hadoop-env.sh

找到export JAVA_HOME=${JAVA_HOME}, 修改为绝对路径 export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

使用yarn框架的话, 建议同时修改文件 etc/hadoop/yarn-env.sh, 找到下面这行:
#export JAVA_HOME=/home/y/libexec/jdk1.6.0/
修改为: export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

注意: 如果不知道JDK安装路径, 使用下面的命令查找: (第一行命令用于确定server上jdk的软件包名称)

hm@u14s64:~/hadoop$ dpkg -l|grep -e jdk
hm@u14s64:~/hadoop$ dpkg -L openjdk-7-jdk

Optional:
如果想在其他路径下运行hadoop命令, 需要先运行下面的命令:

hm@u14s64:~/hadoop$ export HADOOP_PREFIX=/home/hm/hadoop/
hm@u14s64:~/hadoop$ export PATH=$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin

如果要对所有用户永久生效, 则去/etc/profile文末添加这两行, 保存后, 运行source profile命令可以使其立即生效. (不推荐)

在Ubuntu Server版中, 如果只对当前用户永久更改的话, 则将上述两个export加到.profile文件末尾: (推荐)

hm@u14s64:~/hadoop$ vi ~/.profile
hm@u14s64:~/hadoop$ source ~/.profile

测试jdk设置是否成功

hm@u14s64:~/hadoop$ bin/hadoop

此时应该能显示hadoop命令的usage选项

Local(Standalone)模式

这是Hadoop的默认模式, 运行在单个Java进程里, 主要用于debug.

下面我们做个演示, 拷贝hadoop自己的一些配置文件到input目录模拟需要处理的大数据, 运用MapReduce来分析dfs开头的字串的出现次数以及名字, 最后把结果输出到屏幕上

 hm@u14s64:~/hadoop$ mkdir input
hm@u14s64:~/hadoop$ cp etc/hadoop/*.xml input
hm@u14s64:~/hadoop$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.2.jar grep input output 'dfs[a-z.]+'
hm@u14s64:~/hadoop$ cat output/*

可以看到符合dfs开头的单次总共出现一次, 名为"dfsadmin"

Pseudo-Distributed Mode (伪分布模式)

修改hadoop配置文件

一般来说总共有4个配置文件可以修改: (demo的具体修改见后文)

core-site.xml    配置全局属性
hdfs-site.xml    配置hdfs分布式文件系统相关属性
mapred-site.xml   配置旧框架MapReduce相关属性
yarn-site.xml    配置新框架yarn相关属性

注意, mapred-site.xml比较特殊:

  • 使用MapReduce框架时, 通过该文件对MapReduce相关属性进行配置.
  • 使用yarn框架时, 该文件的新属性mapreduce.framework.name必须配置. 
    通常情况下这个配置的值都设置为 yarn, 如果没有配置这项, 那么提交的 yarn job 只会运行在Local模式,而不是分布式模式.
    此外, 新框架也可以通过该属性来支持第三方 MapReduce 开发框架, 比如 SmartTalk/DGSG 等非 Yarn 架构.

想查看默认配置, 或者查看配置项解释, 可以在本地hadoop解压包里面, 搜索core-default.xml或者其他xxx-default.xml来参考. 一般位于share/doc/hadoop/hadoop-project-dist/hadoop-common中.

也可以去 http://hadoop.apache.org/docs/ 选择你需要的版本, 点击左下侧的configuration中对应的xml文件即可.

不同Hadoop版本的属性名称有差别, 本例采用了较新的Hadoop 0.23.X 配置写法. 详细对比请看 http://www.ibm.com/developerworks/cn/opensource/os-cn-hadoop-yarn/

etc/hadoop/core-site.xml
输入命令

hm@u14s64:~/hadoop$ sudo vi etc/hadoop/core-site.xml

添加fs.defaultFS属性来指定默认文件系统的URI. 由于是单点伪分布式, host设为localhost. port设置要尽量避免冲突的可能性. 可以用netstat -anp | grep portNumber命令来查看端口使用状态.

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:49000</value>
</property>
</configuration>

etc/hadoop/hdfs-site.xml

同上, 使用vi设置缺省的hdfs数据块的默认副本数, 非伪分布式模式下, 如果有多个slave, 可以把默认副本数设置成至少和slave数量一致. 本例并无多个slave, 因此设置成1即可.

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>

使用旧MapReduce框架的单点伪分布式配置 (运行MapReduce Job)

格式化文件系统

注意, 默认情况下, 该操作会使用/tmp/hadoop-{username}/dfs/name作为hdfs的common storage路径, 如果之后再次格式化NameNode发生错误, 可以去删除tmp下对应目录来解决. 重启server也会自动删除tmp下的文件.

hm@u14s64:~/hadoop$ bin/hdfs namenode -format

启动NameNode和DataNode的守护进程(deamon)

hm@u14s64:~/hadoop$ sbin/start-dfs.sh

仔细看输出的信息, 会看到

Starting secondary namenodes [0.0.0.0]
The authenticity of host '0.0.0.0 (0.0.0.0)' can't be established.

SecondaryNameNode(snn)是作为NameNode的灾难备份而存在的, 我们的演示中暂时用不到, 所以直接忽略这个错误即可.

此时输入命令jps, 查看jvm中的相关进程, 可以看到我们需要的守护进程都已经开启了:

  • SecondaryNameNode
  • DataNode
  • NameNode
  • Jps

守护进程相关的log放在~/hadoop/logs文件夹中, 这些内容非常重要, 将来debug可以依靠这些log.

配置HDFS

hm@u14s64:~/hadoop$ bin/hdfs dfs -mkdir -p /user/hm

既然是伪分布式, 我们接下来都不在本地进行文件操作, 而是去hdfs里面. 可以用命令

hm@u14s64:~/hadoop$ bin/hdfs dfs -ls /user/hm

查看hdfs中的文件和文件夹.

接下来将input文件放到我们的分布式系统上去

hm@u14s64:~/hadoop$ bin/hdfs dfs -mkdir /user/hm/input
hm@u14s64:~/hadoop$ bin/hdfs dfs -put etc/hadoop/*.xml input

运行MapReduce Job

hm@u14s64:~/hadoop$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.2.jar grep input output 'dfs[a-z.]+'

把hdfs上的output文件夹拿到本地来查看结果, 或者直接在hdfs上查看结果:

hm@u14s64:~/hadoop$ bin/hdfs dfs -get output output
hm@u14s64:~/hadoop$ cat output/*
hm@u14s64:~/hadoop$ bin/hdfs dfs -cat /user/hm/output/*

停止HDFS守护进程

完工后, 停掉hdfs守护进程(daemon), 可以用jps检验

hm@u14s64:~/hadoop$ sbin/stop-dfs.sh

使用新yarn框架的单点伪分布式配置 (运行Yarn Job)

修改etc/hadoop/mapred-site.xml

默认情况下这个文件不存在, 所以先从模板新建一个

hm@u14s64:~/hadoop$ cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

设置好Framework名称

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

修改etc/hadoop/yarn-site.xml

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

配置HDFS

接下来和旧框架的步骤一样:
先格式化分布式文件系统(如果没重启, 接上面的步骤操作, 这个可以省略)
启动NameNode和DataNode daemon
然后创建好用户目录和input目录, 上传input数据 (没重启, 接上面操作的话, 这步也省略, 但是记得把output目录删除, 命令: hm@u14s64:~/hadoop$ bin/hdfs dfs -rm -r -f /user/hm/output )

启动yarn框架的守护进程

两个守护进程: ResourceManager和NodeManager

hm@u14s64:~/hadoop$ sbin/start-yarn.sh

可以用jps命令检查, 正确启动, 则可以看到, 除了NameNode, DataNode和SecondaryNameNode, 多了ResourceManager和NodeManager两个进程.

运行MapReduce Job

hm@u14s64:~/hadoop$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.2.jar grep input output 'dfs[a-z.]+' 

对比输出信息, 可以看到和旧框架的运行方式有诸多不同.

如果运行出错, 可以根据具体的container id, 去logs文件夹查找root cause.

同样, 运行output命令可以查看最终结果.

结束守护进程

任务完成, 运行下面的命令结束yarn守护进程

hm@u14s64:~/hadoop$ sbin/stop-yarn.sh

如果不再用到hdfs的守护进程, 则

hm@u14s64:~/hadoop$ sbin/stop-dfs.sh