hadoop+hive+spark搭建(一)

时间:2021-12-11 04:24:51

1.准备三台虚拟机

2.hadoop+hive+spark+java软件包

传送门:Hadoop官网  Hive官网  Spark官网

hadoop+hive+spark搭建(一)    hadoop+hive+spark搭建(一)hadoop+hive+spark搭建(一)

一、修改主机名,hosts文件

  主机名修改

     hostnamectl set-hostname ***

  hosts文件修改

     vi /etc/hosts    写入以下内容

     master 192.168.0.110

     slaver1 192.168.0.111

     slaver2 192.168.0.112

  SSH免登陆

     运行命令 ssh-keygen -t rsa生成秘钥

      hadoop+hive+spark搭建(一)

    

     master节点运行命令 cat id_rsa.pub > authorized_keys

               ssh slaver1 cat ~/.ssh/id_rsa.pub >>authorized_keys

               ssh slaver2 cat ~/.ssh/id_rsa.pub >>authorized_keys

               scp authorized_key root@slaver1:~/.ssh/

               scp authorized_key root@slaver2:~/.ssh/

     vi /etc/ssh/sshd删掉以下注释

      hadoop+hive+spark搭建(一)

        

    执行完如上操作即可免密登录

      hadoop+hive+spark搭建(一)

二、java环境配置

  上传java软件包到各节点并解压缩java软件包到/usr/local/目录下重命名为

    hadoop+hive+spark搭建(一)

  配置java环境变量

   编辑/etc/profile文件,并追加

      export JAVA_HOME=/usr/local/jdk1.8.0

      export PATH=$JAVA_HOME/bin:$PATH

   运行source /etc/profile命令 

 测试java环境变量

    运行java -version命令

    hadoop+hive+spark搭建(一)

    成功安装并配置java

三、Hadoop环境搭建

  上传hadoop软件包并解压缩hadoop软件包到/usr/local/目录下重命名hadoop

    hadoop+hive+spark搭建(一)

  编辑/etc/profile文件,并追加

       export HADOOP_HOME=/usr/local/hadoop

       export PATH=$HADOOP_HOME/bin:$PATH

    运行source /etc/profile命令

  修改配置文件hadoop目录下etc/hadoop/hadoop-env.sh如下

    hadoop+hive+spark搭建(一)

  修改配置文件hadoop目录下etc/hadoop/core-site.xml如下

      hadoop+hive+spark搭建(一)

  修改配置文件hadoop目录下etc/hadoop/hdfs-site.xml如下

      hadoop+hive+spark搭建(一)

  修改配置文件hadoop目录下etc/hadoop/yarn-site.xml如下

      hadoop+hive+spark搭建(一)

  修改配置文件hadoop目录下etc/hadoop/mapred-site.xml如下

      hadoop+hive+spark搭建(一)

  编辑hadoop目录下etc/hadoop/master

      hadoop+hive+spark搭建(一)

  编辑hadoop目录下etc/hadoop/slaves

    hadoop+hive+spark搭建(一)

  格式化HDFS

      master节点运行命令hdfs namenode -format

  master节点运行hadoop目录下sbin/start.all.sh启动所有程序

      

浏览器下输入192.168.0.110:50070即可打开web界面hadoop

   hadoop+hive+spark搭建(一)

在master和slave节点上输入命令jps

   hadoop+hive+spark搭建(一)  hadoop+hive+spark搭建(一)

hadoop搭建成功

hadoop+hive+spark搭建(一)的更多相关文章

  1. hadoop+hive+spark搭建(二)

    上传hive软件包到任意节点 一.安装hive软件 解压缩hive软件包到/usr/local/hadoop/目录下 重命名hive文件夹 在/etc/profile文件中添加环境变量 export ...

  2. hadoop+hive+spark搭建(三)

    一.spark安装   因为之前安装过hadoop,所以,在“Choose a package type”后面需要选择“Pre-build with user-provided Hadoop [can ...

  3. 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

    引言 在大数据学习系列之一 ----- Hadoop环境搭建(单机) 成功的搭建了Hadoop的环境,在大数据学习系列之二 ----- HBase环境搭建(单机)成功搭建了HBase的环境以及相关使用 ...

  4. hadoop和spark搭建记录

    因玩票需要,使用三台搭建spark(192.168.1.10,192.168.1.11,192.168.1.12),又因spark构建在hadoop之上,那么就需要先搭建hadoop.历经一个两个下午 ...

  5. 了解大数据的技术生态系统 Hadoop,hive,spark(转载)

    首先给出原文链接: 原文链接 大数据本身是一个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞生的.你能够把它比作一个厨房所以须要的各种工具. 锅碗瓢盆,各 ...

  6. 一文教你看懂大数据的技术生态圈:Hadoop,hive,spark

    转自:https://www.cnblogs.com/reed/p/7730360.html 大数据本身是个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞 ...

  7. 配置Hadoop,hive,spark,hbase ————待整理

    五一一天在家搭建好了集群,要上班了来不及整理,待下周周末有时间好好整理整理一个完整的搭建hadoop生态圈的集群的系列 若出现license information(license not accep ...

  8. 服务器Hadoop+Hive搭建

    出于安全稳定考虑很多业务都需要服务器服务器Hadoop+Hive搭建,但经常有人问我,怎么去选择自己的配置最好,今天天气不错,我们一起来聊一下这个话题. Hadoop+Hive环境搭建 1虚拟机和系统 ...

  9. 大数据学习系列之八----- Hadoop、Spark、HBase、Hive搭建环境遇到的错误以及解决方法

    前言 在搭建大数据Hadoop相关的环境时候,遇到很多了很多错误.我是个喜欢做笔记的人,这些错误基本都记载,并且将解决办法也写上了.因此写成博客,希望能够帮助那些搭建大数据环境的人解决问题. 说明: ...

随机推荐

  1. .net MVC 中枚举类型Enum 转化成 下拉列表的数据源

    第一次写技术博文,记录下工作中遇到的问题,给自己的知识做个备份,也希望能帮助到其他的同学 最近接手了公司的一个新的项目.有个页面涉及相关设计. 分享一个经常用到的吧. 方法一: 直入主题吧 我们的目的 ...

  2. 设计一个较好的框架的难点之一--API兼容性的设计

    设计一个好的框架和设计一个好的软件一样,需要考虑的方面很多,比如扩展性.性能.用户体验.稳健性等等,视不同的场景,每个点都可能导致成败,但他们通常并不是老板们关心的,因为在大部分情况下,他们通常都没有 ...

  3. K米测试

    K米评测 ------K米IOS4.3.0体验之旅 第一部分 :调研,评测 第一次上手体验:  像大多数同学一样,这也是我第一次使用k米这一类型的ktv点歌软件.我算是比较经常接触唱k的人,身边的朋友 ...

  4. Code Snippet

    Code Snippet: http://msdn.microsoft.com/en-us/library/z41h7fat.aspx CodePlex.Snippets 4.0 - Visual S ...

  5. Java基础(下)(JVM、API)

    Java基础(下) 第三部分:Java源程序的编辑 我们知道,计算机是不能直接理解源代码中的高级语言,只能直接理解机器语言,所以必须要把高级语言翻译成机器语言,计算机才能执行高级语言编写的程序. 翻译 ...

  6. webots自学笔记(二)节点与机器人建模

    原创文章,出自"博客园, _阿龙clliu" :http://www.cnblogs.com/clliu/ 上一次介绍了界面和一个简单的*落体,然而在实际运用中,机器人的结构都是 ...

  7. python---进程与线程

    进程和线程 什么是线程(thread)什么是进程 线程:操作系统能够进行运算调度的最小单位.它被包含在进程中,是进程中的实际运作单位.是一串指令的集合 一个线程指的是进程中一个单一顺序的控制流,一个进 ...

  8. Dynamics CRM2013/2015 Plugin注册工具Register New Assembly时无法看到注册按钮的解决办法

    CRM2013的注册插件工具UI相比2011之前有了一定的改变,但改变UI的同时也给开发人员带来了困扰,打开注册工具点击Register按钮选择dll时页面就是下面这样的,你完全看不到最下面的两个按钮 ...

  9. ssh 免密登陆

    A 要免密码登录要B 那么需要在A电脑上使用命令 ssh-keygen -t rsa 在~/.ssh/ 目录下生成id_rsa.pub 这个文件,然后将这个文件的内容拷到B电脑de ~/.ssh/au ...

  10. MySQL学习笔记-数据库文件

    数据库文件 MySQL主要文件类型有如下几种 参数文件:my.cnf--MySQL实例启动的时候在哪里可以找到数据库文件,并且指定某些初始化参数,这些参数定义了某种内存结构的大小等设置,还介绍了参数类 ...