0
点赞
收藏
分享

微信扫一扫

深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络



文章目录

  • 一、前言
  • 二、卷积操作
  • 2.1 填充(padding)
  • 2.2 步长
  • 2.3 输出特征图尺寸计算
  • 2.4 多通道卷积
  • 三、池化操作
  • 四、Lenet-5及CNN结构进化史
  • 4.1 Lenet-5


一、前言

深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络_人工智能


卷积神经网络–AlexNet(最牛)-2012

Lenet-5-大规模商用(1989)

二、卷积操作

1.特征具有局部性:卷积核每次仅连接KK区域,KK是卷积核尺寸

2.特征可能出现在任何位置:卷积核参数重复使用(参数共享),在图像上滑动

深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络_神经网络_02


卷积核(就有点像权重矩阵)

卷积核:具可学习参数的算子,用于对输入图像进行特征提取,输出通常称特征图(feature maps)

2.1 填充(padding)

深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络_卷积_03


分辨率不变

弥补边界丢失

2.2 步长

滑动距离

深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络_神经网络_04

2.3 输出特征图尺寸计算

F_in是输入特征图的长度

k:卷积核的长度

p:填充(单行长度)

s:步长

深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络_卷积_05

2.4 多通道卷积

卷积核:高、宽、输入的通道数量、输出个数(4维)

深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络_卷积核_06


深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络_cnn_07


卷积核是3-D张量,但是计算还是2-D卷积(视频处理中,会用到3-D卷积-有时间概念)

三、池化操作

下采样图像,不会改变图像目标:降低计算量,减少特征冗余

深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络_卷积核_08


很少用池化了,因为降低分辨率,可以用设置步长。

四、Lenet-5及CNN结构进化史

4.1 Lenet-5

卷积池化的堆叠

深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络_人工智能_09


深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络_神经网络_10


举报

相关推荐

0 条评论