Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

时间:2023-03-08 20:18:08

本系列文章允许转载,转载请保留全文!

【请先阅读】【说明&总目录】http://www.cnblogs.com/tbcaaa8/p/4415055.html

1. 梯度下降法 (Gradient Descent)

梯度下降法是一种用来寻找函数最小值的算法。算法的思想非常简单:每次沿与当前梯度方向相反的方向走一小步,并不断重复这一过程。举例如下:

[例]使用梯度下降法,求z=0.3x2+0.4y2+2的最小值。

第一步:求解迭代格式。根据“每次沿与当前梯度方向相反的方向走一小步”的思想,可知x(k+1)=x(k)-0.6x(k), y(k+1)=y(k)-0.8y(k)

第二步:选择迭代的初始值。初始值一般可以随意选择,但恰当的初始值有助于提升收敛速度。本例中选择x(0)=1, y(0)=1

第三步:根据迭代格式和初始值进行迭代求解。迭代过程如下:

k x(k) y(k) z(x(k),y(k))
0 1.00 1.00 2.7000
1 0.40 0.20 2.0640
2 0.16 0.04 2.0083
3 0.06 0.01 2.0013
4 0.03 0.00 2.0002
5 0.01 0.00 2.0000
6 0.00 0.00 2.0000

结论:可以发现,第6次迭代后,算法收敛。所求最小值为2。

梯度下降算法如何进行收敛判定呢?一个通用的方法是判断相邻两次迭代中,目标值变化量的绝对值是否足够小。具体到上述例题,就是判断|z(x(k+1),y(k+1))-z(x(k),y(k))|<eps是否成立。eps是一个足够小的正实数,可以根据所需要的精度进行选取,本例中eps=10-4

需要注意的是,梯度下降法有可能陷入局部最优解。可以通过多次随机选取初始值以及增加冲量项等方法加以改善,本系列后续文章中可能涉及。

2. 线性回归 (Linear Regression)

线性回归是对自变量和因变量之间关系进行建模的回归分析,回归函数满足如下形式:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归  

我们使用Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归表示数据组数,使用Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归表示数据的维数;使用Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归表示第Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归组数据的自变量和因变量,使用Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归表示第Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归组数据自变量的第Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归个分量。推导过程基于如下假设:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

即每一组数据的误差项相互独立,且均服从均值为0,方差为Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归的正态分布。进而,我们可以得到似然函数:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

对数似然函数:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

化简,可得:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

定义损失函数:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

要使似然函数最大,只需使损失函数最小。我们使用损失函数的极小值代替最小值,只需对每一个Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归求偏导数:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

最后,使用梯度下降法迭代求解:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

其中,Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归为学习率,是一个大于0的常数。学习率应当慎重选择,过大会导致算法不收敛,过小会导致收敛速度缓慢。在实际应用中,可以根据具体情况对学习率进行调节。有资料表明,当Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归  Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归 时,上述算法收敛。由于Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归难以高效计算,因此往往使用Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归来代替。

3. 逻辑回归 (Logistic Regression)

当因变量只能在{0,1}中取值时,线性回归模型不再适合,因为极端数据的存在会使阀值的选择变得困难。我们可以使用逻辑回归对数据进行建模。回归函数满足如下形式:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

其中:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

sigmoid函数具有如下性质:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

推导过程基于如下假设:(其实就是假设y(i)~Bernoulli(hθ(x(i))))

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

考虑到Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归取值的特殊性,上述假设等价于以下形式:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

进而得到似然函数:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

对数似然函数:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

化简,得:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

定义损失函数:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

要使似然函数最大,只需使损失函数最小。我们使用损失函数的极小值代替最小值,只需对每一个Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归求偏导数:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

化简,得:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

最后,使用梯度下降法迭代求解:

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归

Machine Learning 学习笔记 (1) —— 线性回归与逻辑回归含义同上。