hadoop学习笔记(六):hadoop全分布式集群的环境搭建

时间:2022-10-29 00:20:12

本文原创,如需转载,请注明作者以及原文链接!

一、前期准备:

1、jdk安装        不要用centos7自带的openJDK
2、hostname    配置       配置位置:/etc/sysconfig/network文件
3、hosts           配置        配置位置 : /etc/hosts
4、date            配置       date -s "....."设置日期一致
5、   关闭安全机制 /etc/sysconfig/selinux
6、  关闭防火墙:firewall iptables off
7、映射文件更改  :windows 域名映射 /etc/hosts文件

本环境的搭建角色:主结点node01,从结点node02,、node03,、node04,第二主节点secondaryNameNode的位置:node02

密匙文件分发到从结点

分发命令举例:

[root@node01 hadoop-2.6.]# scp id_dsa.pub node02:`pwd`/node01.pub

这些都设置好了之后才具备全分布式搭建的条件

二、环境搭建

节点: node01/02/03/04全分布分配方案:

NN               SNN                 DN
NODE01          *
NODE02                                 *                     *
NODE03                                                        *
NODE04                                                         *

节点状态:
node01: 伪分布
node02/03/04 : ip配置完成
建立各节点通讯(hosts)  可以通过Ping  结点主机的别名来检查是否结点之间能够通讯成功

设置时间同步:date -s “xxxx-x-xx xx:xx:xx”

秘钥分发:
在每个节点上登录一下自己:产生.ssh目录                                                ------------------------具体的从新登陆代码:
从node01向node02/node03/node04分发公钥 (公钥的名称要变化)
scp id_dsa.pub node03:`pwd`/node06.pub                                             ---------------------》要明白这里的主结点分发给从结点的公钥文件的名称为啥要变化,是为了如果有其他的结                                                                                                                                               点  也想要管理这个几点的话, 也会发公钥文件给从结点,如果不改名的话,第二个管理结                                                                                                                                               点的分发的公钥文件会覆盖掉第一个下发的公钥文件。

各节点把node01的公钥追加到认证文件里:
cat ~/node06.pub >> ~/.ssh/authorized_keys                                             ----------------------》这样之后才会能够实现主结点到从结点的免密登录

node02/node03/node04安装jdk环境,node01分发profile给其他节点,并重读配置文件   :通过source 或者.  /etc/profile的形式

分发hadoop部署程序2.6.5 到其他节点

copy node06 下的 hadoop 为 hadoop-local (管理脚本只会读取hadoop目录)

[root@node06 etc]# cp -r hadoop/ hadoop-pesudo                        --------------->作为分布式集群的备份目录,如果以后想要启动伪分布式集群的话,则可以将这个备份文件改名为hadoop
配置core-site.xml                                                                           ---------------------》需要配置的是产生的dataNode、DataNode等结点的数据文件,如fsimage文件的位置
配置hdfs-site.xml                                                                           ---------------------》配置从结点的个数和,第二主结点的位置,如可以将第二个主结点放到其他的某个从结点的位置                                                                                                             之上
配置slaves

分发sxt目录以及他一下的所有的内容及目录 到其他07,08,09节点 ----------------》这样做的好处就是,不用在其他的每个从结点上再去一一的建立一个相同的目录了

格式化集群:hdfs namenode -format                                               ----------------->注意这里格式化完毕之后仅仅是产生一个头结点的数据文件,其他的服务器上 的从结点的数据文                                                                                                                                      件 和存放数据文件的目录是集群启动的时候才会产生的

至此集群搭建完毕!!!

三、集群启动

启动集群:start-dfs.sh

Jps 查看各节点进程启动情况

之后如果想要浏览器访问集群的话,需要查询集群和浏览器交互的端口号,一般是50070 ------------》ss -nal

浏览器成功的访问分布式存储系统

hadoop学习笔记(六):hadoop全分布式集群的环境搭建

四、文件上传

  • 上传文件到分布式存储系统

先创建一个用于上传的1.4M大小的文件

[root@node01 hadoop-2.6.]# for i in `seq `;do echo "hello sxt $i"  >> test.txt;done

效果

hadoop学习笔记(六):hadoop全分布式集群的环境搭建

具体的对于上传的文件的分割的大小可以做规定,一般的是默认128M每一块,我们可以通过以下的命令来设置

命令意义:将test.txt文件分割上传,并设置分割大小为1M,所以比如这个文件的总的大小是1.4M 的话,会分成两块

[root@node01 software]# hdfs dfs -D dfs.blocksize= -put test.txt

上传之后的效果

1)从浏览器上看

块1的存储效果

hadoop学习笔记(六):hadoop全分布式集群的环境搭建

块2的存储效果

hadoop学习笔记(六):hadoop全分布式集群的环境搭建

2)从xshell中看

输入命令

所在目录:存储有数据块的从结点的/var/sxt/hadoop/full/dfs/data/current/BP-1760625074-192.168.27.102-1569216123348/current路径下的文件,如下图

hadoop学习笔记(六):hadoop全分布式集群的环境搭建

打开底层存储的文本文件test.txt 的blk_107341825的效果

block0

hadoop学习笔记(六):hadoop全分布式集群的环境搭建

block1

hadoop学习笔记(六):hadoop全分布式集群的环境搭建

集群停止:

[root@node01 dfs]# stop-dfs.sh

hadoop学习笔记(六):hadoop全分布式集群的环境搭建

hadoop学习笔记(六):hadoop全分布式集群的环境搭建的更多相关文章

  1. hadoop学习笔记(九):mr2HA高可用环境搭建及处步使用

    本文原创,如需转载,请注明原文链接和作者 所用到的命令的总结: yarn:启动start-yarn.sh   停止stop-yarn.sh zk :zkServer.start ;:zkServer. ...

  2. Hadoop(三)手把手教你搭建Hadoop全分布式集群

    前言 上一篇介绍了伪分布式集群的搭建,其实在我们的生产环境中我们肯定不是使用只有一台服务器的伪分布式集群当中的.接下来我将给大家分享一下全分布式集群的搭建! 其实搭建最基本的全分布式集群和伪分布式集群 ...

  3. Hadoop(三)搭建Hadoop全分布式集群

    原文地址:http://www.cnblogs.com/zhangyinhua/p/7652686.html 阅读目录(Content) 一.搭建Hadoop全分布式集群前提 1.1.网络 1.2.安 ...

  4. [转帖]hadoop学习笔记:hadoop文件系统浅析

    hadoop学习笔记:hadoop文件系统浅析 https://www.cnblogs.com/sharpxiajun/archive/2013/06/15/3137765.html 1.什么是分布式 ...

  5. Elastic Stack之ElasticSearch分布式集群yum方式搭建

    Elastic Stack之ElasticSearch分布式集群yum方式搭建 作者:尹正杰  版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.搜索引擎及Lucene基本概念 1>.什么 ...

  6. centos 8 集群Linux环境搭建

    一.集群Linux环境搭建 1. 注意事项 1.1 windows系统确认所有的关于VmWare的服务都已经启动 打开任务管理器->服务,查看五个VM选项是否打开. 1.2 确认好VmWare生 ...

  7. 吴裕雄--天生自然HADOOP学习笔记:hadoop集群实现PageRank算法实验报告

    实验课程名称:大数据处理技术 实验项目名称:hadoop集群实现PageRank算法 实验类型:综合性 实验日期:2018年 6 月4日-6月14日 学生姓名 吴裕雄 学号 15210120331 班 ...

  8. Hadoop上路-01_Hadoop2.3.0的分布式集群搭建

    一.配置虚拟机软件 下载地址:https://www.virtualbox.org/wiki/downloads 1.虚拟机软件设定 1)进入全集设定 2)常规设定 2.Linux安装配置 1)名称类 ...

  9. 暑假第二弹:基于docker的hadoop分布式集群系统的搭建和测试

    早在四月份的时候,就已经开了这篇文章.当时是参加数据挖掘的比赛,在计科院大佬的建议下用TensorFlow搞深度学习,而且要在自己的hadoop分布式集群系统下搞. 当时可把我们牛逼坏了,在没有基础的 ...

随机推荐

  1. Django数据库设计中字段为空的方式

    今天在做数据库设计的时候,设计了如下User表,其中我把email和phone字段设置为允许为空: class User(models.Model): username = models.CharFi ...

  2. ElasticSearch Java api 详解_V1.0

    /×××××××××××××××××××××××××××××××××××××××××/ Author:xxx0624 HomePage:http://www.cnblogs.com/xxx0624/ ...

  3. IP地址字符串与BigInteger的转换

    /**  * Copyright (c) 2010, 新浪网支付中心  *      All rights reserved.  *  * Java IP地址字符串与BigInteger的转换,  * ...

  4. VisualSVN Server仓库迁移到Linux(包含所有版本, 权限,用户信息)

    公司开发服务器从Windows换成CentOS,所以要把原服务都转移到Linux下,MySQL.SMB的迁移都很顺利,但是SVN的转移却遇到了些问题,花费了三天时间,走了不少弯路,现在总算解决了SVN ...

  5. sqlQuery.list()方法返回类型

    SQLQuery sqlQuery = session.createSQLQuery(this.sql.toString()); List<Object[]> list = (List&l ...

  6. JavaScript 基本包装类型&comma;包装对象

    前言 javascript对象是一种复合值,它是属性或已命名值的集合.通过'.'符号来引用属性值.当属性值是一个函数时,称其为方法.通过o.m()来调用对象o中的方法.我们发现,字符串也同样具有属性和 ...

  7. Git 将本地库添加到远程仓库

    git remote add origin ssh://admin@127.0.0.1:29418/Prjs/prj1.git git push -u origin master

  8. ssm,dubbo框架搭建得配置文件

    在建立了parent,common,manager(pojo,mapper,sercie,web)的maven工程后,开始导入添加配置文件: pojo,mapper 最终会打成jar包,service ...

  9. 菜鸟学Java(二十)——你知道long和Long有什么区别吗?

    Java中数据类型分两种: 1.基本类型:long,int,byte,float,double 2.对象类型:Long,Integer,Byte,Float,Double其它一切java提供的,或者你 ...

  10. servlet类第二篇

    1servlet的生命周期是什么? 服务器启动时(web.xml中配置load-on-startup=1,默认为0)或者第一次请求该servlet时,就会初始化一个Servlet对象,也就是会执行初始 ...