Spark1.6 Idea下远程调试

时间:2021-12-26 08:47:49

使用的开发工具:scala2.10.4、Idea16、JDK8

1.导入依赖的包和源码

在下载Spark中到的导入spark的相关依赖了包和其源码.zip,相关源码的下载地址:https://github.com/apache/spark/tree/v1.6.0

地址最后面是对应的版本号,下载源码便于看注释

Spark1.6 Idea下远程调试

2.使用官方求Pi的例子

  1. import org.apache.spark.{SparkConf, SparkContext}
  2. object FirstDemo {
  3. def main(args: Array[String]) {
  4. val conf = new SparkConf().setAppName("Spark Pi")
  5. val spark = new SparkContext(conf)
  6. val slices = if (args.length > 0) args(0).toInt else 2
  7. val n = 100000 * slices
  8. val count = spark.parallelize(1 to n, slices).map { i =>
  9. val x = Math.random * 2 - 1
  10. val y = Math.random * 2 - 1
  11. if (x * x + y * y < 1) 1 else 0
  12. }.reduce(_ + _)
  13. println("*****Pi is roughly " + 4.0 * count / n)
  14. spark.stop()
  15. }
  16. }

3.导出项目jar包

确认之后->build->build artifacts->rebuild

Spark1.6 Idea下远程调试

4.启动集群

先修改配置文件,再启动集群可能会导致master无法正常启动,下次想取消远程调试,可以把配置文件再改回来

  1. [root@master sbin]# jps
  2. 30212 SecondaryNameNode
  3. 32437 -- main class information unavailable
  4. 30028 NameNode

所以请先启动集群

  1. [root@master sbin]# ./start-all.sh
  2. starting org.apache.spark.deploy.master.Master, logging to /hadoop/spark-1.6.0-bin-hadoop2.6/logs/spark-root-org.apache.spark.deploy.master.Master-1-master.out
  3. slave01: starting org.apache.spark.deploy.worker.Worker, logging to /hadoop/spark-1.6.0-bin-hadoop2.6/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave01.out

5.修改配置文件spark-class

spark-class在SPARK_HOME/bin下

  1. done < <("$RUNNER" -cp "$LAUNCH_CLASSPATH" org.apache.spark.launcher.Main "$@")

修改成

  1. done < <("$RUNNER" -cp "$LAUNCH_CLASSPATH" org.apache.spark.launcher.Main $JAVA_OPTS "$@")

$JAVA_OPTS 为我们添加的参数,下面在命令行中为其声明(建议写到配置文件中)

  1. export JAVA_OPTS="$JAVA_OPTS -Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=5005"

6.提交Spark,开启端口监听

上传之前生成的jar包到master节点,在命令行中执行

  1. spark-submit --master spark://master:7077 --class FirstDemo Spark02.jar

出现如下结果,表示master正在监听5005端口

  1. [root@master ~]# spark-submit --master spark://master:7077 --class FirstDemo Spark02.jar
  2. Listening for transport dt_socket at address: 5005

7.Idea配置远程

Spark1.6 Idea下远程调试

添加Remote组件,填写master的ip的监听端口

Spark1.6 Idea下远程调试

8.启动调试

Spark1.6 Idea下远程调试

JAVA_OPTS参数说明:

  1. -Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=5005
  2. 参数说明:
  3. -Xdebug 启用调试特性
  4. -Xrunjdwp 启用JDWP实现,包含若干子选项:
  5. transport=dt_socket JPDA front-end和back-end之间的传输方法。dt_socket表示使用套接字传输。
  6. address=5005 JVM在5005端口上监听请求,这个设定为一个不冲突的端口即可。
  7. server=y y表示启动的JVM是被调试者。如果为n,则表示启动的JVM是调试器。
  8. suspend=y y表示启动的JVM会暂停等待,直到调试器连接上才继续执行。suspend=n,则JVM不会暂停等待。

参考文章列表:

http://blog.csdn.net/lovehuangjiaju/article/details/49227919     Spark1.5远程调试

http://www.thebigdata.cn/QiTa/12370.html      调试参数