Hadoop原生态版安装

时间:2022-05-19 18:02:23

1 安装环境和必要软件

3 台 ubuntu 16.04

vim

2 创建hadoop用户

sudo useradd -m hadoop -s /bin/bash

sudo passwd hadoop

sudo adduser hadoop sudo

3 更新软件源

公司环境限制系统的的源无法下载java sdk所以这里更新到阿里源,3台服务器都需要

cd /etc/apt

cp sources.list sources.list.bak

vim sources.list

#al Xerus_ - Release amd64 (20160420.1)]/ xenial main restricted deb-src http://archive.ubuntu.com/ubuntu xenial main restricted #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial main restricted deb-src http://mirrors.aliyun.com/ubuntu/ xenial main restricted multiverse universe #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted deb-src http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted multiverse universe #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial universe deb http://mirrors.aliyun.com/ubuntu/ xenial-updates universe deb http://mirrors.aliyun.com/ubuntu/ xenial multiverse deb http://mirrors.aliyun.com/ubuntu/ xenial-updates multiverse deb http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse #Added by software-properties deb http://archive.canonical.com/ubuntu xenial partner deb-src http://archive.canonical.com/ubuntu xenial partner deb http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted deb-src http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted multiverse universe #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial-security universe deb http://mirrors.aliyun.com/ubuntu/ xenial-security multiverse

sudo apt-get update

4 更改计算机名称和IP映射

sudo vim /etc/hostname

sudo vim /etc/hosts

三台服务器都要改成只保留一个内部地址映射,以及对另外两条服务器的ip映射,完成后重启生效

 
Hadoop原生态版安装
 

5 安装ssh

sudo apt-get install openssh-server

这里直接配置对三台服务器的公用key,如果没有如果没有 ~/.ssh 目录,先执行一次ssh localhost

cd ~/.ssh #

rm ./id_rsa*

ssh-keygen -t rsa

Master服务器上

cat ./id_rsa.pub >> ./authorized_keys

其他两台Slave服务器,后续还要用scp复制文件到Slave

scp ~/.ssh/id_rsa.pub hadoop@Slave1:/home/hadoop/

在设置为公用key

cd ~/.ssh #

cat ./id_rsa.pub >> ./authorized_keys

安装和配置JAVA JDK

直接用如下命令安装,如安装提示无法下载,要更新源,安装的版本都是1.8

sudo apt-get install default-jre default-jdk

配置java 到环境变量中

vim ~/.bashrc

export JAVA_HOME=/usr/lib/jvm/default-java   #在打开的bashrc开头添加

source ~/.bashrc

6 安装 Hadoop

因为java-sdk是1.8 目前用2.9到3.0版本没发现问题,现在Master服务器上安装

下载网址:http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.9.0

如果不行请使用如下地址

https://mirrors.cnnic.cn/apache/hadoop/common/

http://mirror.bit.edu.cn/apache/hadoop/common/

下载hadoop

sudo wget http://mirrors.shu.edu.cn/apache/hadoop/common/hadoop-2.9.0/hadoop-2.9.0.tar.gz

我的是下载在HOME下,复制到/usr/local/中

cp hadoop-2.9.0.tar.gz /usr/local

在/usr/local/ 解压

sudo tar -zxf hadoop-2.9.0.tar.gz

重命名文件夹并更改权限

sudo mv ./hadoop-2.9.0/ ./hadoop

sudo chown -R hadoop ./hadoop

在解压的hadoop文件中切换到配置文件目录,配置code-site.xml /hdfs-site.xml/ mapred-site.xml /yarn-site.xml

后面有时间深入研究一下配置文档节点的含义。

但是注意的是3.0版本以上的对应配置的web 端口有变化,后续补充一下。

cd ./etc/hadoop/

code-site.xml

 
Hadoop原生态版安装
 

hdfs-site.xml

 
Hadoop原生态版安装
 

mapred-site.xml 默认文件名为 mapred-site.xml.template 需修改名称

 
Hadoop原生态版安装
 

yarn-site.xml

 
Hadoop原生态版安装
 

复制到两个Slave服务器上:

scp -r ./hadoop Slave2:/home/

正常配置了ssh公钥登录是不需要输入账号的,如提示没权限用如下复制,添加账号进行,提示yes/no 一定要完整的输入

scp -r ./hadoop hadoop@Slave1:/home/

登录到Slave上,将/home中的hadoop复制到/usr/local中,并添加权限

sudo cp hadoop/ /usr/local

sudo chown -R hadoop /usr/local/hadoop

7 添加Hadoop到path变量中

 
Hadoop原生态版安装
 

8 启动服务

Master服务器上格式化NameNode和启动hadoop

hdfs namenode -format   #如果配置好执行一次就好,多次自行会导致后续在启动时Slave datanode无法启动

start-dfs.sh

start-yarn.sh

mr-jobhistory-daemon.sh start historyserver

执行jps查看运行的进程:

 
Hadoop原生态版安装
 

在Master服务器上执行 hdfs dfsadmin -report,查看data节点的信息

 
Hadoop原生态版安装
 

打开网页端 http://10.19.52.80:50070 的结果:

 
Hadoop原生态版安装
 

后面再记录一下 用Python开发 HDFS 的上传下载

作者:SMILE_NO_09
链接:https://www.jianshu.com/p/11ad16ea03c2
來源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。