为了减少网络的复杂度,增加一个滑动的矩阵小窗口,比如minist数据集输入是28x28=784,也就是说除输入层外,其他层的每个节点与上层都有784条权重连线,而增加一个3x3的滑动窗口后,连线就变成了9,这样大大减少了参数量。这里使用了信号中的卷积运算,即对应元素相乘再累加,因此3x3的滑动窗口被称为卷积核,进行的运行叫卷积运算。
上图是爱因斯坦头像,如果使用全连接,那么参数量是
1
0
12
10^{12}
1012,而使用10x10的卷积运算后,参数量降到了100M。
相关文章
- python 实现convolution neural network卷积神经网络算法
- CNN(卷积神经网络)
- 【转载】关于Resnet18的结构参数以及每层卷积池化后的特征图大小和通道数变化
- YOLOv5改进系列(25)——添加LSKNet注意力机制(大选择性卷积核的领域首次探索)
- YOLOv5改进系列(27)——添加SCConv注意力卷积(CVPR 2023|即插即用的高效卷积模块)
- YOLOv5改进系列(28)——添加DSConv注意力卷积(ICCV 2023|用于管状结构分割的动态蛇形卷积)
- 卷积的微分以及积分性质
- 《深入浅出图神经网络》阅读笔记-第3章 卷积神经网络(2)卷积神经网络特点
- CNN中卷积方式大汇总
- Group Convolution分组卷积,以及Depthwise Convolution和Global Depthwise Convolution