• spark 1.5的hivecontext的问题

    时间:2022-12-03 09:16:18

    spark升级到1.5,里面的hive版本升级到1.2.1版本,我写了如下的代码 object SQLApp extends App{ val sparkconf = new SparkConf().setAppName("sql").setMaster("local") ...

  • IDEA Spark HiveContext访问Hive

    时间:2022-12-03 09:21:42

    1 项目配置 需要将hive-site.xml配置放在src目录。 2 代码 import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.hi...

  • java.lang.NoSuchMethodError:org.apache.spark.sql.hive.HiveContext.sql(Ljava / lang / String;)Lorg / apache / spark / sql / DataFrame

    时间:2022-10-19 23:08:56

    I'm getting below error while running spark program using spark-submit. 我使用spark-submit运行spark程序时遇到错误。 My spark-cluster is of version 2.0.0 and I use ...

  • idea在本地调试,spark创建hiveContext的时候报错

    时间:2022-06-25 12:55:36

    spark版本:1.6.1 scala版本:2.10 问题呢场景: 在idea调试本地程序的时候创建hiveContext报错,上午的时候是没有这个问题的,下午在项目中写了一个小deamon,出现了而这个问题,下面是我的代码: import cn.com.xxx.common.config.Sp...

  • idea在本地调试,spark创建hiveContext的时候报错

    时间:2022-05-06 09:21:38

    spark版本:1.6.1 scala版本:2.10 问题呢场景: 在idea调试本地程序的时候创建hiveContext报错,上午的时候是没有这个问题的,下午在项目中写了一个小deamon,出现了而这个问题,下面是我的代码: import cn.com.xxx.common.config.Sp...

  • 在spark中运行HiveContext

    时间:2022-05-06 09:21:32

    1.添加配置 程序只需要读取hive配置文件hive-site.xml,不用hdfs-site.xml.若在ide中直接运行,可以将配置文件直接放在工程resources目录下一起打包,程序会自动到该目录下读取。 也可以spark-submit时在–files中设置hdfs路径 ...

  • windows运行 HiveContext 报错

    时间:2022-04-08 09:21:05

       装在 windows 的 ideal 运行  val sqlContext = new HiveContext(sc)   报 错 Caused by: java.lang.NullPointerExceptionat java.lang.ProcessBuilder.start(Pr...

  • error: bad symbolic reference. A signature in HiveContext.class refers to term hive

    时间:2021-12-08 11:30:42

    在spark-shell中执行val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)报错:error: bad symbolic reference. A signature in HiveContext.class refers

  • SQLContext、HiveContext自定义函数注册

    时间:2021-05-06 17:00:25

    本文简单介绍两种往SQLContext、HiveContext中注册自定义函数方法。下边以sqlContext为例,在spark-shell下操作示例:scala> scres5: org.apache.spark.SparkContext = org.apache.spark.SparkCo...