文章目录
1.InceptionV4结构
(1)整体网络结构
(2)主干网络结构(Stem)
上面的Inception结构中的Stem展开式:
注:
其中的V表示不使用padding,也就是不加填充。
(3)Inception模块
Inception模块A:
Inception模块B:
Inception模块C:
(4)降采样模块
降采样模块A
降采样模块B
其中上面的k,l,m分别表示卷积核的个数:
2.InceptionV4整体讲解
(1)首先输入299x299图片大小;
(2)第二步经过主干网络Stem;
(3)第三步经过4个Inception-A模块;
(4)第四步经过降采样A;
(5)第五步经过7个Inception-B模块;
(6)第六步经过降采样B;
(7)第七步经过3个Inception-C模块;
(8)第八步经过全局平均池化;
(9)第九步使用Dropout避免过拟合;
(10)最后经过softmax输出类别概率;
3.Inception-ResNet-V1结构
(1)整体网络结构
(2)主干网络(Stem)
(3)Inception-ResNet-V1模块
模块A
模块B
模块C
(4)降采样模块
模块A
模块B
上面的l,m,n表示含义:
4.10.inception-ResNet-V2
(1)整体网络结构
(2)主干网络(Stem)
inception-ResNet-V2与InceptionV4主干网络相同
(3)inception-ResNet-V2模块
模块A
模块B
模块C
(4)降采样模块
模块A
模块B
5.单模型,单帧和多帧的预测结果对比
(1)单帧,单模型
(2)多帧,单模型
(3)多帧(144),单模型
(4)多模型集成
注:多帧:对一张需要预测的图片进行放缩裁剪的处理得到多张子图,经过分类,对这多张子图预测的结果汇总在一起得到最终的分类结果。
6.总结
(1).能否将Inception与ResNet相结合,残差连接将显著加快inception训练,准确率也有少许的提升。
(2)8.对残差块输出进行幅度缩小
卷积核的个数超过1000的话,在训练早期的最后GlobalAveragePoolling层之前的feature map里面含有很多的0,但是使用更小的学习率和BN都不能解决这个问题,所以在加法融合之前对残差分支的结果乘以幅度缩小系数(0.1-0.3)。
7.InceptionV4网络结构实现
https://blog.csdn.net/Keep_Trying_Go/article/details/124438141
8.Inception-ResNet-V1网络结构实现
https://blog.csdn.net/Keep_Trying_Go/article/details/124460670