创建 Spark 项目
要在 IntelliJ IDEA 中创建一个 Spark 项目,首先启动 IDE 并选择 File -> New -> Project
。随后,在弹出的窗口中选择 Scala 类型的项目,并确保选择了 SBT 构建工具1。
配置 JDK 和 Scala 版本
在新建项目的向导界面中,指定所使用的 JDK(推荐版本为 JDK 1.8 或更高),以及 Scala 的具体版本(例如 Scala-2.11.8)。这些配置会直接影响到后续构建过程中的兼容性和依赖管理。
设置 Build 文件 (build.sbt)
对于基于 SBT 的项目来说,编辑 build.sbt
是至关重要的一步。在这个文件里定义好所需的库依赖项,比如针对 Spark Core 及其相关组件设置合适的版本号。下面是一个简单的例子展示如何引入基本的 Spark SQL 功能:
scala
name := "MySparkApp" version := "0.1" scalaVersion := "2.11.8" libraryDependencies += "org.apache.spark" %% "spark-core" % "2.3.2" libraryDependencies += "org.apache.spark" %% "spark-sql" % "2.3.2"
此部分操作完成后可以考虑启用自动导入功能来简化工作流程,即勾选 Enable Auto-Import 复选框使得每次修改 build.sbt 后无需手动刷新即可完成重新加载2。
编写第一个 Spark 程序
当环境搭建完毕之后就可以着手于实际编码环节了。通常情况下我们会从最基础的例子入手——WordCount 示例应用。以下是该示例的一个实现片段:
scala
import org.apache.spark.SparkConf import org.apache.spark.sql.SparkSession object WordCount { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("wordcount").setMaster("local[*]") val spark = SparkSession.builder.config(conf).getOrCreate() import spark.implicits._ val textFile = spark.read.textFile("/path/to/your/input/file.txt") val counts = textFile.flatMap(line => line.split(" ")) .map(word => (word, 1)) .reduceByKey(_ + _) counts.collect.foreach(println) spark.stop() } }
这段代码展示了怎样利用 RDDs 来执行单词计数任务1。
运行与调试您的 Spark Application
最后要做的就是通过点击 Run 按钮或者直接调用 sbt 命令如 sbt run
执行这个新编写的 Spark application 。如果一切正常的话,则应该能够看到预期的结果输出至控制台之中。