逻辑回归的总结(详细步骤)

时间:2024-04-01 21:03:43

什么是逻辑回归?

逻辑回归虽然名字中带有回归,但是并不是一个回归模型,而是一个分类模型。逻辑回归的目的就是解决分类问题,最常用的就是解决二分类问题。

逻辑回归和线性回归的关系

逻辑回归(Logistic Regression)与线性回归(Linear Regression)都是一种广义线性模型(generalized linear model)。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从高斯分布。 因此与线性回归有很多相同之处,去除Sigmoid映射函数的话,逻辑回归算法就是一个线性回归。可以说,逻辑回归是以线性回归为理论支持的,但是逻辑回归通过Sigmoid函数引入了非线性因素,因此可以轻松处理0/1分类问题。
这广义线性模型家族中的模型形式基本上都差不多,不同的就是因变量不同。

  • 如果是连续的,就是多重线性回归;
  • 如果是二项分布,就是逻辑回归;
  • 如果是Poisson分布,就是Poisson回归;
  • 如果是负二项分布,就是负二项回归;

逻辑回归问题解决的常规步骤

1.寻找一个合适的预测函数,一般是h函数(即hypothesis函数)。这个函数就是我们要找分类函数,用来预测输入数据的判断结果。这个过程很重要,需要对数据有一定的了解和分析,知道或猜测函数大概的形式,比如说是线性函数还是非线性函数。
2.构造一个Cost函数(即损失函数),该函数用来表示预测函数(h)与训练数据类别(y)之间的偏差,可以将二者之间的差(h-y)或者差平方hy2(h-y)^2或者其他的形式。综合考虑所有的训练数据的“损失”,将Cost求和或者求平均,记为J(θ)J(\theta)函数,表示所有的训练数据预测值与实际类别的偏差。
3.想办法使得J(θ)J(\theta)最小并且求得最佳参数J(θ)J(\theta)函数的值越小,表示预测函数越准确(即h函数越准确),所以要找到JθJ(\theta)函数的最小值。找函数的最小值有不同的方法,这里使用的是梯度下降法(Gradient Descent)。

具体过程

1.寻找h函数

逻辑回归是一个分类方法,用于解决分类问题,常用于解决二分类问题,即输出类别有两种。在这里,我们要选用Sigmoid函数即:g(z)=11+ezg(z)=\frac{1}{1+e^{-z}}简单解释下逻辑回归模型为什么要用Sigmoid函数。
从指数族分布讲起,指数族分布 (The exponential family distribution),区别于指数分布(exponential distribution)。在概率统计中,若某概率分布满足下式,我们就称之属于指数族分布。
p(y;η)=b(y)exp(ηTT(y)a(η))p(y;η)=b(y)exp(η^{T}T(y)−a(η))
其中η是natural parameter, T(y)是充分统计量, exp−a(η))是起到归一化作用。 确定了T,a,b,我们就可以确定某个参数为η的指数族分布.
统计中很多熟悉的概率分布都是指数族分布的特定形式,如伯努利分布,高斯分布,多项分布(multionmal), 泊松分布等。下面介绍其中的伯努利分布。
伯努利分布
p(y;ϕ)=ϕy(1ϕ)1yp(y;ϕ)=ϕ^y(1−ϕ)^{1−y}
=exp[ylogϕ+(1y)log(1ϕ)]=exp[ylogϕ+(1−y)log(1−ϕ)]
=exp[ylogϕ1ϕ+log(1ϕ)]=exp[ylog\frac{ϕ}{1−ϕ}+log(1−ϕ)]

把伯努利分布可以写成指数族分布的形式,且
T(y)=yT(y)=y
η=logϕ1ϕη=log\frac{ϕ}{1−ϕ}
a(η)=log(1ϕ)=log(1+eη)a(η)=−log(1−ϕ)=log(1+e^η)
b(y)=1b(y)=1

同时我们可以看到ϕ=11+eηϕ=\frac{1}{1+e{−η}} 就是logistic sigmoid的形式。
具体的解释,可以看这篇文章 logistics 为什么用sigmoid函数.
接下来需要确定数据划分的边界,对于图1和图2的两种数据分布,显然图1需要一个线性的边界,而图2需要一个非线性的边界。所以接下来我们只讨论线性边界。
逻辑回归的总结(详细步骤)

图1

逻辑回归的总结(详细步骤)

图2

对于线性边界的情况,边界形式如下:θ0+θ1x1+....+θnxn=i=0nθixi=θTx\theta_0+\theta_1x_1+....+\theta_nx_n =\sum_{i=0}^n\theta_ix_i =\theta ^Tx构造预测函数为:hθ(x)=g(θTx)=11+eθTxh_\theta(x)=g(\theta^Tx)=\frac {1}{1+e^{-\theta ^Tx}}
hθ(x)h_\theta(x)函数的值有特殊的含义,它表示结果取1的概率,因此对于输入x的分类结果为类别1和类别0的概率分别为:
P(y=1x;θ)=hθ(x)P(y=1|x;\theta)=h_\theta(x)
P(y=0x;θ)=1hθ(x)P(y=0|x;\theta)=1-h_\theta(x)

2.构造Cost函数

我们知道损失函数分为0-1损失,平方损失,绝对损失和对数似然损失(对数损失)。
在这里我们采用对数似然损失。当然,损失函数都是人为选择的,选择什么损失函数都行。但是如果这里用最小二乘法作为损失函数的话,函数曲线是非凸的,不利于求解参数。而对数似然函数作为损失函数的话,曲线是凸的,方便求解。
根据对数似然损失函数,有:
Cost(hθ(x),y)={log(hθ(x))ify=1log(1hθ(x))ify=0 Cost(h_\theta(x),y) = \begin {cases} -log(h_\theta(x)) & {if y=1} \\ -log(1-h_\theta(x)) &{if y=0} \end {cases}
根据伯努利分布,有p(yx;θ)=hθ(x)y(1hθ(x))1yp(y|x;\theta)=h_\theta(x)^y(1-h_\theta(x))^{1-y}
取似然函数:
L(θ)=i=1mp(yixi;θ)=i=1mhθ(xi)yi(1hθ(xi))1yiL(\theta)=\prod_{i=1}^m p(y^i|x^i;\theta)=\prod_{i=1}^mh_\theta(x^i)^{y^i}(1-h_\theta(x^i))^{1-y^i}
对数似然函数:
l(θ)=logL(θ)=i=1m[yilog(hθ(xi))+(1yi)log(1hθ(xi))]l(\theta)=logL(\theta)=\sum_{i=1}^m[y^ilog(h_\theta(x^i))+(1-y^i)log(1-h_\theta(x^i))]
最大似然估计就是要求l(θ)θl(\theta)取最大值时的\theta,故将J(θ)=1ml(θ)J(\theta)=-\frac{1}{m}l(\theta),即
J(θ)=1mi=1m[yilog(hθ(xi))+(1yi)log(1hθ(xi))]J(\theta)=-\frac{1}{m}\sum_{i=1}^m[y^ilog(h_\theta(x^i))+(1-y^i)log(1-h_\theta(x^i))]
所以J(θ)θJ(\theta)取最小值时的\theta为要求的最佳参数

3.梯度下降法求J(θ)J(\theta)的最小值

求参优化也有不同的方法如梯度下降法,拟牛顿法等方法可以使用,在这里我们用梯度下降法。
梯度下降公式如下:
θj:=θjαδδθjJθ,(j=0,1,2,....,n)\theta_j:=\theta_j-\alpha\frac{\delta}{\delta\theta_j}J\theta,(j=0,1,2,....,n)式子中α\alpha为学习步长,下面来求偏导:
逻辑回归的总结(详细步骤)
上面求解过程中用到的公式有:
逻辑回归的总结(详细步骤)
因此,梯度下降公式可以更新为:
逻辑回归的总结(详细步骤)

【参考文献】
  1. [Stanford机器学习公开课](https://www.coursera.org/course/ml)
  2. https://blog.csdn.net/xiaoxiangzi222/article/details/55097570