Ubuntu 14.04 下使用IDEA开发Spark应用 入门

时间:2023-03-09 03:18:14
Ubuntu 14.04 下使用IDEA开发Spark应用 入门

网上有很多教程,有用sbt ,也有不用sbt的,看的头大,搞了半天,终于运行成功一个例子,如下:

1.官网下载http://www.jetbrains.com/idea/download/

Interlij IDEA,用conmmunity Edition 就够了

2.启动起来以后,在插件搜索里面 选择scala ,安装。

3.创建scala Project ,设置名称,JDK和Scala路径:

Ubuntu 14.04 下使用IDEA开发Spark应用 入门

Ubuntu 14.04 下使用IDEA开发Spark应用 入门

4.选择菜单中的“File”→“project structure”→“Libraries”,然后点击“+”导入spark-assembly-1.2.0-hadoop2.4.0.jar。

这个jar包包含Spark的所有依赖包和Spark源码。

5.新建一个SparkPi的类,最终结果如下:

Ubuntu 14.04 下使用IDEA开发Spark应用 入门

6.代码如下:

/**
* Created by hadoop on 15-12-15.
*/ package org.apache.spark.examples import scala.math.random
import org.apache.spark.SparkContext import org.apache.spark.SparkContext._ /** Computes an approximation to pi */
object SparkPi {
def main(args: Array[String]) {
// val conf = new SparkConf().setAppName("Spark Pi").setMaster("spark://127.0.0.1:7077") // val spark = new SparkContext(conf)
val spark = new SparkContext("local","Spark Pi") val slices = if (args.length > 0) args(0).toInt else 2
val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow
val count = spark.parallelize(1 until n, slices).map { i =>
val x = random * 2 - 1
val y = random * 2 - 1
if (x*x + y*y < 1) 1 else 0
}.reduce(_ + _)
println("Pi is roughly " + 4.0 * count / n)
spark.stop()
}
}

7.运行Spark程序像上面我们编写完代码,有两种方法运行我们的程序,一个是IDEA中的run方法,另一个是将我们的程序打包成jar包,在Spark集群上用命令行执行。

Run方法:

在IDEA菜单中选择“Run”→“Edit Configurations”出现如下界面:

点左上角的“+”,选择“Application”,在右边的拓展中改一下name,选择Main函数:

然后点击右上角的绿色运行箭头即可

Ubuntu 14.04 下使用IDEA开发Spark应用 入门

Ubuntu 14.04 下使用IDEA开发Spark应用 入门

错误处理:

[error] (run-main-0) java.lang.NoSuchMethodError: scala.collection.immutable.HashSet$.empty()Lscala/collection/immutable/HashSet;
java.lang.NoSuchMethodError: scala.collection.immutable.HashSet$.empty()Lscala/collection/immutable/HashSet;
at akka.actor.ActorCell$.<init>(ActorCell.scala:305)
at akka.actor.ActorCell$.<clinit>(ActorCell.scala)
at akka.actor.RootActorPath.$div(ActorPath.scala:152)
at akka.actor.LocalActorRefProvider.<init>(ActorRefProvider.scala:465)
at akka.remote.RemoteActorRefProvider.<init>(RemoteActorRefProvider.scala:124)
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
at java.lang.reflect.Constructor.newInstance(Constructor.java:422)
at akka.actor.ReflectiveDynamicAccess$$anonfun$createInstanceFor$2.apply(DynamicAccess.scala:78)
at scala.util.Try$.apply(Try.scala:191)

解决办法:将scala2.11换成scala2.10