Scala 深入浅出实战经典 第48讲:Scala类型约束代码实战及其在Spark中的应用源码解析

时间:2021-11-20 19:04:30

王家林亲授《DT大数据梦工厂》大数据实战视频 Scala 深入浅出实战经典(1-64讲)完整视频、PPT、代码下载:
百度云盘:http://pan.baidu.com/s/1c0noOt6
腾讯微云:http://url.cn/TnGbdC
360云盘:http://yunpan.cn/cQ4c2UALDjSKy 访问密码 45e2
技术爱好者尤其是大数据爱好者 可以加DT大数据梦工厂的qq群

DT大数据梦工厂① :462923555
DT大数据梦工厂②:437123764
DT大数据梦工厂③ :418110145

微信公众账号: DT_Spark
王家林老师微信号: 18610086859
王家林老师QQ: 1740415547
王家林老师邮箱: 18610086859@126.com

本视频由王家林老师, 亲自讲解, 完全通过代码实战把您带人大数据的时代.

package com.parllay.scala.type_parameterizitor

/**
* Created by richard on 15-8-1.
* 第48讲:Scala类型约束代码实战及其在Spark中的应用源码解析
*/ class Pair_Type[T](val first: T, val second: T) { def smaller(implicit ev : T <:< Ordered[T]) = if(first < second) first else second } object Type_Contraints { def main(args: Array[String]) { /**
* A =:= B 表示A类型等同于B类型
* A <:< B 表示A类型是B类型的子类型
*
*
*/ def rocky[T](i:T)(implicit ev : T <:< java.io.Serializable): Unit = {
println("Life is short, you need spark")
} /**
* 调用方法的时候, scala会推断出T 类型为String, 然后隐式比较 String 和 Serializable
*
* String是Serializable的子类型. 会输出 Life is short, you need spark
*/
rocky("spark") /**
* 约束的作用1:在特定条件下使用:
* 比如以下实例Pair_Type class, 这个时候我们可以构建出Pair[File] 实例,
* 但是只有在真正调用smaller方法的时候才会报错, 因为File 并没有实现Ordered的方法;
*/ /**
* 约束的作用2:改进推断类型
*
*/ //def firstLast[A,C <: Iterable[A]](it : C) = (it.head, it.last) /**
* 当我们执行如下代码, 推断出的类型为:[Noting, List[int]] 不满足A,C <: Iterable[A]
* 类型推断器无法判断出A的类型, 因为A,C是在同一个步骤中被匹配到的;
* 那么解决的办法是 先判断C的类型, 然后判断A的类型.修改为
*/
def firstLast[A,C](it : C)(implicit env :C <:< Iterable[A]) = (it.head, it.last) firstLast(List(1, 2, 3))
} }