误差逆传播(error BackPropagation, BP)算法推导及向量化表示

时间:2022-09-26 09:08:27

1、前言

看完讲卷积神经网络基础讲得非常好的cs231后总感觉不过瘾,主要原因在于虽然知道了卷积神经网络的计算过程和基本结构,但还是无法透彻理解卷积神经网络的学习过程。于是找来了进阶的教材Notes on Convolutional Neural Networks,结果刚看到第2章教材对BP算法的回顾就犯难了,不同于之前我学习的对每一个权值分别进行更新的公式推导,通过向量化表示它只用了5个式子就完成了对连接权值更新公式的描述,因此我第一眼看过去对每个向量的内部结构根本不清楚。原因还估计是自己当初学习得不够深入,正好离上次自己推导BP算法已经过去挺长时间了,所以重新拿起教材学习复习了一下并逐个对应起来,最终把Notes on Convolutional Neural Networks中的向量化表示搞清楚了。本篇就是对上面的复习和对应过程的详细记录,如果看完并自己推导一遍的话肯定能清楚BP算法的每个更新公式是怎么来的。

2、符号定义

任何不说明符号含义就开始的推导就是耍流氓,所以此部分对用于推导的网络结构和符号进行说明。基本采用了周志华教授的《机器学习》书中的符号定义,不过自己还是做了些符号变更。

网络结构:误差逆传播(error BackPropagation, BP)算法推导及向量化表示

图1. 全连接的网络结构,从上到下依次为输出层、隐含层和输入层

符号说明:

误差逆传播(error BackPropagation, BP)算法推导及向量化表示 :输出层第j个神经元的输出(j=1,2,…,l);

误差逆传播(error BackPropagation, BP)算法推导及向量化表示 :输出层第j个神经元的偏置;

误差逆传播(error BackPropagation, BP)算法推导及向量化表示

:输出层第j个神经元的输入;

误差逆传播(error BackPropagation, BP)算法推导及向量化表示

:隐含层第h个神经元的输出(h=1,2,…,q);

误差逆传播(error BackPropagation, BP)算法推导及向量化表示 :隐含层第h个神经元的偏置;

误差逆传播(error BackPropagation, BP)算法推导及向量化表示 :隐含层第h个神经元的输入;

误差逆传播(error BackPropagation, BP)算法推导及向量化表示

:输入层第i个神经元的输入;

误差逆传播(error BackPropagation, BP)算法推导及向量化表示:隐含层第h个神经元和输出层第j个神经元之间的连接权值;

误差逆传播(error BackPropagation, BP)算法推导及向量化表示

:输入层第i个神经元和隐含层第h个神经元之间的连接权值;

例如图1中的两条橙色直线即分别代表上述两个权值所在的连接

3、问题目标

对于某一个样例它的输入可以描述成:

误差逆传播(error BackPropagation, BP)算法推导及向量化表示

已知该输入的期望输出为:

误差逆传播(error BackPropagation, BP)算法推导及向量化表示

而它的实际输出为:

误差逆传播(error BackPropagation, BP)算法推导及向量化表示

我们的目标即为利用上述信息更新网络中的参数,从而使误差减小。

4、详细推导

首先采用均方误差公式来衡量误差:

(1)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

其中我们有:

(2)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

上式的意思是输出层神经元的输出可以由它的输入、偏置再加上激活函数f(*)确定。并且它的输入等于隐含层神经元的输出与连接权值的乘积之和,即:

(3)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

-------------------------下面是隐含层和输出层之间连接权值更新公式的推导-----------------------------

BP算法使用梯度下降法调整参数,从而使误差向减小的方向移动。因此连接权值的更新公式可以表示为:

(4)

误差逆传播(error BackPropagation, BP)算法推导及向量化表示

(5)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

其中式(4)中的误差逆传播(error BackPropagation, BP)算法推导及向量化表示是学习速率。可以看出我们的任务就是求出式(4),然后就可以通过和旧的连接权值相加完成权值的更新。然而式(4)中的偏导数无法直接求出,需要利用链式法则进行转换。为了进行转换我们首先需要知道隐含层和输出层之间的连接权值是如何影响到最终的均方误差E的。显然它首先会影响到输出层神经元的输入误差逆传播(error BackPropagation, BP)算法推导及向量化表示,再影响到输出层神经元的输出误差逆传播(error BackPropagation, BP)算法推导及向量化表示,最终影响到均方误差E。所以根据上述描述我们可以构造出链式法则:

(6)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

式(6)中的三个偏导数从左到右依次为:输出层神经元j的输出对均方误差的影响,输出层神经元j的输入对它自己的输出的影响,我们所要更新的连接权值对输出层神经元j的输入的影响。

之后问题就可以转化为求解这三个偏导数

[1] 根据式(1)我们很容易得到第一个偏导数的结果:

(7)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

[2] 根据式(2)也可以很容易得得到第二个偏导数的结果:

(8)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

[3] 根据式(3)也可以得到第三个偏导数的结果:

(9)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

因此综合起来我们就可以得到隐含层和输出层之间连接权值的最终更新公式:

(10)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

----------------------------下面是输出层神经元偏置的更新公式的推导-----------------------------------

输出层神经元偏置的更新公式可以利用等效思想非常"优雅"地解决。我们常把偏置等效成一个连接权值始终为-1,输出为误差逆传播(error BackPropagation, BP)算法推导及向量化表示的隐含层神经元,进一步思考我们还可以等效成连接权值为误差逆传播(error BackPropagation, BP)算法推导及向量化表示,而输出始终为-1的隐含层神经元不是么?而隐含层神经元与输出层神经元之间连接权值我们已经推导出来了。

因此事实上我们只需要把式(10)的误差逆传播(error BackPropagation, BP)算法推导及向量化表示换成-1就得到输出层神经元偏置的更新公式:

(11)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

-------------------------下面是输入层与隐含层之间连接权值更新公式的推导-----------------------------

首先类似隐含层与输出层之间连接权值的更新公式我们有:

(12)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

并且我们有:
(13)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

(14)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

同样的,需要使用链式法则将式(12)转换成以下形式:

(15)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

由式(14)可以发现第一个偏导数无法直接求出,还需要进一步分解。不过为了简化公式我们先将后面两个偏导数求出来放在一边。具体地:

[1] 根据式(14)可以得到第二个偏导数的结果:

(16)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

[2] 根据式(13)可以得到第三个偏导数的结果:

(17)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

现在我们来求第一个偏导数,它可以根据链式法则分解为:

(18)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

参考式(3),(7),(8)就可以得到式(18)的最终结果:

(19)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

综合式(16),(17),(19)就可以得到式(15)的最终结果:

(20)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

---------------------------------------------------------------------------------------------------------

额外地,隐含层神经元的偏置也可以通过类似上面叙述的等效思想解决。只需要将式(20)的最后一项更改为-1就得到了隐含层神经元偏置的更新公式。

---------------------------------------------------------------------------------------------------------

至此BP算法所有参数的更新公式推导完毕。

五、向量化表示

虽然推导容易理解,但公式还是比较长的。因此可以用向量化的表示方法来重新表示公式。

首先以输出层的计算来说明符号。输出层的计算可以用下面的矩阵乘法进行表示:

(21)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

通用地对于第a层(由于第一层是输入层,因此a大于1)的计算过程可以用下式表示:

(22)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

其中的每一项的意义和式(21)中的每一项一一对应起来。

接着由式(4)和(12)我们可以整理出连接权值更新的通用公式:

(23)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

并且:

(24)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

其中的误差逆传播(error BackPropagation, BP)算法推导及向量化表示需要分情况考虑:

[1] 第a层是输出层:

(25)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

[2] 第a层不是输出层:

(26)误差逆传播(error BackPropagation, BP)算法推导及向量化表示

其中的 误差逆传播(error BackPropagation, BP)算法推导及向量化表示 运算符代表对应元素相乘而不是矩阵乘法,并且注意到式(26)还是一个递归式。

至此向量化表示完毕。

误差逆传播(error BackPropagation, BP)算法推导及向量化表示的更多相关文章

  1. 神经网络 误差逆传播算法推导 BP算法

      误差逆传播算法是迄今最成功的神经网络学习算法,现实任务中使用神经网络时,大多使用BP算法进行训练.   给定训练集\(D={(x_1,y_1),(x_2,y_2),......(x_m,y_m)} ...

  2. 神经网络和误差逆传播算法(BP)

    本人弱学校的CS 渣硕一枚,在找工作的时候,发现好多公司都对深度学习有要求,尤其是CNN和RNN,好吧,啥也不说了,拿过来好好看看.以前看习西瓜书的时候神经网络这块就是一个看的很模糊的块,包括台大的视 ...

  3. BP算法推导python实现

    def sigmoid(inX):   return 1.0/(1+exp(-inX))   '''标准bp算法每次更新都只针对单个样例,参数更新得很频繁sdataSet 训练数据集labels 训练 ...

  4. BP(back propagation)误差逆传播神经网络

    [学习笔记] BP神经网络是一种按误差反向传播的神经网络,它的基本思想还是梯度下降法,中间隐含层的误差和最后一层的误差存在一定的数学关系,(可以计算出来),就像误差被反向传回来了,所以顾名思义BP.想 ...

  5. 神经网络和BP算法推导

    注意:绘画太难了,因为他们画,本文中的所有插图来自基本算法饺子机类.请勿转载 1.习模型: 事实上,基本上全部的基本机器学习模型都能够概括为下面的特征:依据某个函数,将输入计算并输出. 图形化表示为下 ...

  6. bp算法推导过程

    参考:张玉宏<深度学习之美:AI时代的数据处理与最佳实践>265-271页

  7. BP神经网络模型及算法推导

    一,什么是BP "BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最 ...

  8. BP神经网络算法推导及代码实现笔记zz

    一. 前言: 作为AI入门小白,参考了一些文章,想记点笔记加深印象,发出来是给有需求的童鞋学习共勉,大神轻拍! [毒鸡汤]:算法这东西,读完之后的状态多半是 --> “我是谁,我在哪?” 没事的 ...

  9. 深度学习——前向传播算法和反向传播算法(BP算法)及其推导

    1 BP算法的推导 图1 一个简单的三层神经网络 图1所示是一个简单的三层(两个隐藏层,一个输出层)神经网络结构,假设我们使用这个神经网络来解决二分类问题,我们给这个网络一个输入样本,通过前向运算得到 ...

随机推荐

  1. Docket学习--Docker入门

    什么是Docker? Docker是一个开源的引擎,可以轻松的为任何应用创建一个轻量级的.可移植的.自给自足的容器.开发者在笔记本上编译测试通过的容器可以批量地在生产环境中部署,包括VMs(虚拟机). ...

  2. 2016-09-19&colon; linux后台运行

    linux后台运行命令两种方式: 1. command & : 后台运行,你关掉终端会停止运行   2. nohup command & : 后台运行,你关掉终端也会继续运行 简介 L ...

  3. Java概述之从源码到运行

    Java体系结构包括以下四个部分: 1. Java语言 2. Java class文件格式(被编译后的java类文件格式) 3. Java API 4. Java虚拟机JVM 它们之间的关系,总结一句 ...

  4. &lbrack;logstash-input-file&rsqb;插件使用详解(转)

    最小化的配置文件 在Logstash中可以在 input{} 里面添加file配置,默认的最小化配置如下:       1 2 3 4 5 6 7 8 9 10 11 input {     file ...

  5. linux--关于shell的介绍

    下面是最近学习shell的一些知识点总结***博客园-邦邦酱好*** 1.什么是shell(1)Shell将我们输入的指令与Kernel沟通,好让Kernel可以控刢硬件来正确无误地工作.(2)我们总 ...

  6. 【第一篇】学习 android 事件总线androidEventbus之sticky事件的传递

    最近再看eventbus相关代码,首先从使用开始,后期再从源码角度分析eventbus.使用Demo后期公布到github上去. 使用的框架地址:https://github.com/bboyfeiy ...

  7. BZOJ1008&colon; &lbrack;HNOI2008&rsqb;越狱-快速幂&plus;取模

    1008: [HNOI2008]越狱 Time Limit: 1 Sec  Memory Limit: 162 MBSubmit: 8689  Solved: 3748 Description *有 ...

  8. 利用RTL2832u电视棒芯片追踪民航飞机轨迹

    我国民航飞机通讯的频率为1090Mhz,而rtl2832u电视棒芯片可以接受的频率范围为24 – 1766 MHz(通过改制Q通道可以接收0-30Mhz的短波)下面开始介绍利用rtl2832u电视棒芯 ...

  9. Deep Learning - 3 改进神经网络的学习方式

    反向传播算法是大多数神经网络的基础,我们应该多花点时间掌握它. 还有一些技术能够帮助我们改进反向传播算法,从而改进神经网络的学习方式,包括: 选取更好的代价函数 正则化方法 初始化权重的方法 如何选择 ...

  10. Python 之 Difflib

    Python 之 Difflib 2017年7月8日 word文档地址:https://wenku.baidu.com/view/36692440854769eae009581b6bd97f19237 ...