Lecture 3:Types of Learning(各种类型的机器学习问题)

时间:2022-02-27 15:38:31

Lecture 3:Types of Learning(各种类型的机器学习问题)

3.1 Learning with Different Output Space(不同类型的输出空间)

用患者患病的例子讲述二元分类、多元分类和回归分析的差别。

1. binaryclassification(二元分类问题)

银行发信用卡问题就是一个典型的二元分类问题,其输出空间只包含两个标记+1和-1,分别对应着发卡与不发卡。

二元分类问题是机器学习中重要的一个问题。

二元分类的数据可能是线性可分的、线性不可分的,也有可能是带有噪音的。

二元分类,就是判断这个人是否患病。答案不是+1,就是-1.是显而易见的判断题。

2. MulticlassClassification(多元分类)

有二元分类,就不难想到多元分类的问题,该类问题输出标签不止两种,而是{1,2,…,K}。

这在人们的生活中非常常见,比如给水果的图像分类,识别硬币等等,其主要的应用场景就是模式识别。

 多元分类,就是判断这个人患的是什么病?是一道典型的选择题。

3. Regression(回归分析)

该问题的输出空间为一个实实在在的数值,该输出不是一种毫无意义的标记,而是有实际意义的输出值。

所以,回归分析,对应的就是患者康复需要的时间,这个时间是一个数值而非一个标记。这种问题可以看做填空题。 

3.2 Learning with Different Data Label(不同的数据标记)

1. SupervisedLearning(监督学习)

知道数据输入x的同时还知道数据的标记y。就相当于告诉你题目的同时还告诉你答案。

老师在课上举了个例子,硬币分类问题,如图所示,其中横轴标示硬币的大小,纵轴标示硬币聚集的堆。

 

Lecture 3:Types of Learning(各种类型的机器学习问题) 

其中这几种类别的硬币已经被各种不同的颜色所标示好。

 

2. UnsupervisedLearning(无监督学习)

知道数据输入x但是不知道知道数据的标记y。就相当于告诉你题目但是不告诉你答案,让你自己去找。

再以硬币分类为例进行阐述,如图所示。

 

Lecture 3:Types of Learning(各种类型的机器学习问题)

 

这种类型的问题最常见的是聚类或者叫分群(clustering),从图中不难看出无标示的难度比有标示的难度增加不少,而且极有可能犯错。

除了聚类之外还有其他的无监督学习,如密度评估(density estimation)和离群点检测(outlier detection)等等。

 

3. Semi-supervisedLearning(半监督学习)

监督学习需要太多标记,无监督学习太过容易犯错。是否能在监督式学习和无监督学习之间取一个中庸的方法呢?答案是可以的,就是半监督学习。

半通过少量有标记的训练点和大量无标记的训练点达到学习的目的。

以硬币为例,如图所示。

 Lecture 3:Types of Learning(各种类型的机器学习问题)

 

这种类型的例子也有很多,比如图像的识别,很多情况下我们不可能把每张图片都做上标记(因为做这种标记需要耗费大量的人力物力,是一种昂贵的行为)。

 

4. ReinforcementLearning(强化学习)

强化学习是通过对一个行为作出奖励或者惩罚,以此获得的输出,进而进行学习。

就像你要训练狗,你可以通过奖励以及惩罚来改变狗的行为。 

3.3 Learning with Different Protocol(不同方式获取数据)

在不同的协议中可以将机器学习分为三大类:

1.      批量(batch)学习就是将很多数据一次性的给算法进行学习,最常见的方式;

2.      在线(online)学习就是一点一点将数据传输进去,如PLA和增强学习都适用于这种形式;

3.      主动(active)学习是主动提出问题让算法解决,可以节省大量的训练和标记消耗。

 

3.4 Learning with Different Input Space(不同的输入空间)

输入又可以称之为特征(features),其主要分为三种:

1.      具体特征(Concrete Features),具体特征最大特点就是便于机器学习的处理,也是基础篇中主要讨论的情形。这种情况是人类或者机器通过一定的方式提取获得的,具有实用性。

2.      原始特征(Raw Features),如图片的像素等等,是最为常见到的资料,但是需要经过处理,转换成具体特征,才容易使用,实用性不太大。

3.      抽象特征(Abstract Features),如一些ID之类的看似无意义的数据,这就更需要特征的转换、提取等工作(相对于原始特征而言),几乎没有实用性。