神经网络与深度学习笔记 (五)深层神经网络

时间:2024-05-19 13:33:43

摘要:本文知识点主要有简单介绍深层神经网络、深层神经网络的传播过程、保证矩阵维数的正确性、深度神经网络强大的原因、神经网络正向传播和反向传播的流程图、参数和超参数和神经网络与人脑机制的关系。

1.深层神经网络

深层神经网络其实就是包含更多的隐藏层神经网络。如下图所示,分别列举了逻辑回归、1个隐藏层的神经网络、2个隐藏层的神经网络和5个隐藏层的神经网络它们的模型结构。
神经网络与深度学习笔记 (五)深层神经网络
命名规则上,一般只参考隐藏层个数和输出层。例如,上图中的逻辑回归又叫1 layer NN,1个隐藏层的神经网络叫做2 layer NN,2个隐藏层的神经网络叫做3 layer NN,以此类推。如果是L-layer NN,则包含了L-1个隐藏层,最后的L层是输出层。
神经网络与深度学习笔记 (五)深层神经网络
神经网络与深度学习笔记 (五)深层神经网络

2.深层神经网络的正向传播过程

接下来,我们来推导一下深层神经网络的正向传播过程。仍以上面讲过的4层神经网络为例,对于单个样本:
神经网络与深度学习笔记 (五)深层神经网络
如果有m个训练样本,其向量化矩阵形式为:
神经网络与深度学习笔记 (五)深层神经网络
神经网络与深度学习笔记 (五)深层神经网络

3.保证矩阵维数的正确性

神经网络与深度学习笔记 (五)深层神经网络
神经网络与深度学习笔记 (五)深层神经网络
神经网络与深度学习笔记 (五)深层神经网络

4.深度神经网络强大的原因

我们都知道神经网络能处理很多问题,而且效果显著。其强大能力主要源自神经网络足够“深”,也就是说网络层数越多,神经网络就更加复杂和深入,学习也更加准确。接下来,我们从几个例子入手,看一下为什么深度网络能够如此强大。

先来看人脸识别的例子,如下图所示。经过训练,神经网络第一层所做的事就是从原始图片中提取出人脸的轮廓与边缘,即边缘检测。这样每个神经元得到的是一些边缘信息。神经网络第二层所做的事情就是将前一层的边缘进行组合,组合成人脸一些局部特征,比如眼睛、鼻子、嘴巴等。再往后面,就将这些局部特征组合起来,融合成人脸的模样。可以看出,随着层数由浅到深,神经网络提取的特征也是从边缘到局部特征到整体,由简单到复杂。可见,如果隐藏层足够多,那么能够提取的特征就越丰富、越复杂,模型的准确率就会越高。

语音识别模型也是这个道理。浅层的神经元能够检测一些简单的音调,然后较深的神经元能够检测出基本的音素,更深的神经元就能够检测出单词信息。如果网络够深,还能对短语、句子进行检测。记住一点,神经网络从左到右,神经元提取的特征从简单到复杂。特征复杂度与神经网络层数成正相关。特征越来越复杂,功能也越来越强大。
神经网络与深度学习笔记 (五)深层神经网络
除了从提取特征复杂度的角度来说明深层网络的优势之外,深层网络还有另外一个优点,就是能够减少神经元个数,从而减少计算量。例如下面这个例子,使用电路理论,计算逻辑输出:
神经网络与深度学习笔记 (五)深层神经网络
其中,⊕表示异或操作。对于这个逻辑运算,如果使用深度网络,深度网络的结构是每层将前一层的两两单元进行异或,最后到一个输出,如下图左边所示。这样,整个深度网络的层数是log2(n),不包含输入层。总共使用的神经元个数为:
神经网络与深度学习笔记 (五)深层神经网络
可见,输入个数是n,这种深层网络所需的神经元个数仅仅是n-1个。

如果不用深层网络,仅仅使用单个隐藏层,那么需要的神经元个数将是指数级别那么大。Ng指出,由于包含了所有的逻辑位(0和1),则需要2^(n−1)个神经元。

比较下来,处理同一逻辑问题,深层网络所需的神经元个数比浅层网络要少很多。这也是深层神经网络的优点之一。

尽管深度学习有着非常显著的优势,Andrew还是建议对实际问题进行建模时,尽量先选择层数少的神经网络模型,这也符合奥卡姆剃刀定律(Occam’s Razor)。对于比较复杂的问题,再使用较深的神经网络模型。

5.流程图表示神经网络正向传播和反向传播

5.1流程图

下面用流程块图来解释神经网络正向传播和反向传播过程。如下图所示,对于第l层来说,正向传播过程中:
神经网络与深度学习笔记 (五)深层神经网络
神经网络与深度学习笔记 (五)深层神经网络
刚才这是第l层的流程块图,对于神经网络所有层,整体的流程块图正向传播过程和反向传播过程如下所示:
神经网络与深度学习笔记 (五)深层神经网络

5.2具体表达式

我们继续接着上一部分流程块图的内容,推导神经网络正向传播过程和反向传播过程的具体表达式。
神经网络与深度学习笔记 (五)深层神经网络
m个训练样本,向量化形式为:
神经网络与深度学习笔记 (五)深层神经网络
m个训练样本,向量化形式为:
神经网络与深度学习笔记 (五)深层神经网络

6.参数和超参数

该部分介绍神经网络中的参数(parameters)和超参数(hyperparameters)的概念。
神经网络与深度学习笔记 (五)深层神经网络
如何设置最优的超参数是一个比较困难的、需要经验知识的问题。通常的做法是选择超参数一定范围内的值,分别代入神经网络进行训练,测试cost function随着迭代次数增加的变化,根据结果选择cost function最小时对应的超参数值。这类似于validation的方法。

7.神经网络跟人脑机制

那么,神经网络跟人脑机制到底有什么联系呢?究竟有多少的相似程度?神经网络实际上可以分成两个部分:正向传播过程和反向传播过程。神经网络的每个神经元采用**函数的方式,类似于感知机模型。这种模型与人脑神经元是类似的,可以说是一种非常简化的人脑神经元模型。如下图所示,人脑神经元可分为树突、细胞体、轴突三部分。树突接收外界电刺激信号(类比神经网络中神经元输入),传递给细胞体进行处理(类比神经网络中神经元**函数运算),最后由轴突传递给下一个神经元(类比神经网络中神经元输出)。

值得一提的是,人脑神经元的结构和处理方式要复杂的多,神经网络模型只是非常简化的模型。人脑如何进行学习?是否也是通过反向传播和梯度下降算法现在还不清楚,可能会更加复杂。这是值得生物学家探索的事情。也许发现重要的新的人脑学习机制后,让我们的神经网络模型抛弃反向传播和梯度下降算法,能够实现更加准确和强大的神经网络模型!
神经网络与深度学习笔记 (五)深层神经网络

8.全文总结

本文主要介绍了深层神经网络,是上一节浅层神经网络的拓展和归纳。首先,我们介绍了建立神经网络模型一些常用的标准的标记符号。然后,用流程块图的方式详细推导正向传播过程和反向传播过程的输入输出和参数表达式。我们也从提取特征复杂性和计算量的角度分别解释了深层神经网络为什么优于浅层神经网络。接着,我们介绍了超参数的概念,解释了超参数与参数的区别。最后,我们将神经网络与人脑做了类别,人工神经网络是简化的人脑模型。

参考资料:
1.吴恩达《神经网络与深度学习》中英文视频字幕。
2.deeplearning.ai项目《机器学习训练秘籍》。
3.Al有道微信公众号。

说明:一开始写这个笔记是为了加深学习印象和方便以后复习;后来发现Al有道微信公众号里竟然整理了全套学习资料,大家可以去关注一下;吴恩达的《神经网络与深度学习》课程的五个笔记全都完成,后面学习的课程应该是不整理笔记了,直接使用Al有道微信公众号里面提供的pdf笔记,他整理的确实是不错;不过,如果有什么学习体会或心得我应该会写文章记录一下。