如何在虚拟机上安装和配置Spark开发环境

时间:2022-11-13 18:55:06


如何

文章目录

  • ​​如何​​
  • ​​在虚拟机上安装和配置Spark开发环境​​
  • ​​下载解压安装包​​
  • ​​配置环境变量:​​
  • ​​修改Spark配置文件​​
  • ​​校验​​

在虚拟机上安装和配置Spark开发环境

背景:

​Apache Spark​​​是专为大规模数据处理而设计的快速通用的计算引擎。​​Spark​​​是​​UC Berkeley AMP lab​​​(加州大学伯克利分校的​​AMP​​​实验室)所开源的类​​Hadoop MapReduce​​​的通用并行框架,​​Spark​​​拥有​​Hadoop MapReduce​​​所具有的优点;但不同于​​MapReduce​​​的是——​​Job​​​中间输出结果可以保存在内存中,从而不再需要读写​​HDFS​​​,因此​​Spark​​​能更好地适用于数据挖掘与机器学习等需要迭代的​​MapReduce​​的算法。

下载解压安装包

我们从​​官网​​下载好安装包,

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aF8JGJ2V-1609661845784)(https://data.educoder.net/api/attachments/224760)]

如何在虚拟机上安装和配置Spark开发环境

自己在虚拟机创建一个opt目录,如果你的虚拟机是6.0以上,7.0一下的版本的化你要注意,虚拟机上有opt目录的,如果是7.0以上的版本要自己创建一个opt目录,用来存储下好的Spark包:

创建存储文件:

mkdir /opt

在创建一个/app用来放解压后的文件的文件目录
mkdir /app

解压:

tar -zxvf spark-2.2.2-bin-hadoop2.7.tgz -C /app

配置环境变量:

vim /etc/profile
添加如下内容:
#set spark enviroment
$PARK_HOME=/app/spark-2.2.2-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin
修改Spark配置文件

切换到​​conf​​目录下:

cd /app/spark-2.2.2-bin-hadoop2.7/conf

在这里我们需要配置的是​​spark-env.sh​​​文件,但是查看目录下文件只发现一个​​spark-env.sh.template​​​文件,我们使用命令复制该文件并重命名为​​spark-env.sh​​即可;

cp spark-env.sh.template spark-env.sh

接下来编辑​​spark-env.sh​​,在文件末尾添加如下配置:

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_111export SCALA_HOME=/app/scala-2.12.7export HADOOP_HOME=/usr/local/hadoop/export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoopexport SPARK_MASTER_IP=machine_name   # machine_name 根据自己的主机确定export SPARK_LOCAL_IP=machine_name    # machine_name 根据自己的主机确定

参数解释:

参数

解释

JAVA_HOME

Java的安装路径

SCALA_HOME

Scala的安装路径

HADOOP_HOME

Hadoop的安装路径

HADOOP_CONF_DIR

Hadoop配置文件的路径

SPARK_MASTER_IP

Spark主节点的IP或机器名

SPARK_LOCAL_IP

Spark本地的IP或主机名

如何查看机器名/主机名呢?

很简单,在命令行输入:​​hostname​​即可。

如图:

如何在虚拟机上安装和配置Spark开发环境

校验

最后我们需要校验是否安装配置成功了; 现在我们启动​​spark​​​并且运行​​spark​​​自带的​​demo​​:

首先我们在​​spark​​​根目录下启动​​spark​​​: 在​​spark​​​的根目录下输入命令​​./sbin/start-all.sh​​​即可启动,使用​​jps​​​命令查看是否启动成功,有​​woker​​​和​​master​​节点代表启动成功。

如图:

如何在虚拟机上安装和配置Spark开发环境

接下来运行​​demo​​:

  • 在​​Spark​​根目录使用命令
./bin/run-example SparkPi > SparkOutput.txt`

运行示例程序
  • 在运行的时候我们可以发现打印了很多日志,最后我们使用
cat SparkOutput.txt

可以查看计算结果(计算是有误差的所以每次结果会不一样):