机器学习基石笔记:09 Linear Regression

时间:2021-07-11 01:00:29
线性回归假设:
机器学习基石笔记:09 Linear Regression
代价函数------均方误差:
机器学习基石笔记:09 Linear Regression
最小化样本内代价函数:
机器学习基石笔记:09 Linear Regression机器学习基石笔记:09 Linear Regression机器学习基石笔记:09 Linear Regression
只有满秩方阵才有逆矩阵。
机器学习基石笔记:09 Linear Regression机器学习基石笔记:09 Linear Regression
线性回归算法流程:
机器学习基石笔记:09 Linear Regression
线性回归算法是隐式迭代的。
机器学习基石笔记:09 Linear Regression
线性回归算法泛化可能的保证:

机器学习基石笔记:09 Linear Regression机器学习基石笔记:09 Linear Regression

根据矩阵的迹的性质:trace(A+B)=trace(A)+trace(B),

trace(I-H)

=trace(IN*N)-trace(H)

=N-trace(XX+)

=N-trace(XTX(XTX)-1)

=N-trace(I(d+1)*(d+1))

=N-(d+1),

I-H这种转换的物理意义:

原来有一个有N个*度的向量y,投影到一个有d+1维的空间X(代表一列的*度,即单一输入样本的参数),而剩余的*度最大只有N-(d+1)。

机器学习基石笔记:09 Linear Regression机器学习基石笔记:09 Linear Regression

线性分类是近似求解,线性回归是解析求解,
线性分类中使用0/1误差,线性回归中使用均方误差,
误差方面,线性分类能小于线性回归,
但线性回归速度更快,
可以用线性回归的参数结果初始化线性分类的参数值,
减少迭代过程,加速求解。

机器学习基石笔记:09 Linear Regression机器学习基石笔记:09 Linear Regression机器学习基石笔记:09 Linear Regression