scala用2.11.11 材料准备(注:spark2.1.0环境于scala2.11环境开发

时间:2022-06-09 04:55:31

scala用2.11.11

质料筹备 (注:spark2.1.0环境于scala2.11环境开发,所以必需版本对应 
scala不是必需安置的,如果你是筹算使用scala进行spark开发,则需要安置 环境搭建法式 将spark-2.1.1-bin-hadoop2.x版本至c盘下即可

scala用2.11.11 材料准备(注:spark2.1.0环境于scala2.11环境开发

将spark中的jar包全部提取出来此外放到一处所用于进行开发

scala用2.11.11 材料准备(注:spark2.1.0环境于scala2.11环境开发

新建IDEA项目,将所有jar包导入到IDEA工程傍边

scala用2.11.11 材料准备(注:spark2.1.0环境于scala2.11环境开发

scala用2.11.11 材料准备(注:spark2.1.0环境于scala2.11环境开发

书写相应代码运行即可告成

以Scala书写的WordCount为例

import org.apache.spark._ /** * Created by Joe on 2017/1/16. */ object WordCount { def main(args : Array[String]): Unit = { val inputPath = "wc.txt" val conf = new SparkConf().setMaster("local").setAppName("WordCount") val sc = new SparkContext(conf) val rowRdd = sc.textFile(inputPath) println(rowRdd.take(1).toString) val resultRdd = rowRdd.flatMap(line => line.split("\\s+")) .map(word => (word, 1)).reduceByKey(_ + _) println(resultRdd.take(2).toString) for (data <- resultRdd) { println(data) } sc.stop() } }

scala用2.11.11 材料准备(注:spark2.1.0环境于scala2.11环境开发