吴恩达Machine Learning学习笔记(三)--逻辑回归+正则化

时间:2023-03-09 07:47:39
吴恩达Machine Learning学习笔记(三)--逻辑回归+正则化

分类任务

  原始方法:通过将线性回归的输出映射到0~1,设定阈值来实现分类任务

  改进方法:原始方法的效果在实际应用中表现不好,因为分类任务通常不是线性函数,因此提出了逻辑回归

逻辑回归

假设表示--引入sigmoid函数g

  吴恩达Machine Learning学习笔记(三)--逻辑回归+正则化

  sigmoid函数将输出映射到区间(0,1),可以看作是概率

损失函数

  吴恩达Machine Learning学习笔记(三)--逻辑回归+正则化

多分类

  训练多个逻辑回归二分类器,对新的样本取预测概率最高的一个类别

欠拟合与过拟合

  欠拟合:高偏差,模型没有很好地捕捉到数据的结构,通常是因为模型太简单,使用特征太少

  过拟合:高方差,可以很好地拟合可用数据,但泛化能力很差,通常是因为采用了冗余的特征  

  解决过拟合:(1)减少不重要的特征数(2)使用正则化方法,降低参数变量theta的幅值

正则化损失函数

  线性回归:吴恩达Machine Learning学习笔记(三)--逻辑回归+正则化

  逻辑回归:吴恩达Machine Learning学习笔记(三)--逻辑回归+正则化