0
点赞
收藏
分享

微信扫一扫

论文阅读:Convolutional Neural Networks for No-Reference Image Quality Assessment

摘要:

以图像补丁作为输入,在空间域中工作,而不使用以前大多数方法所使用的手工特征。该网络由一个具有最大和最小池的卷积层、两个完全连接的层和一个输出节点组成。在网络结构中,特征学习和回归被集成到一个优化过程中,从而产生一个更有效的图像质量估计模型。

1.NR-IQA的CNN

给定灰度图像,我们首先执行对比度归一化,然后从中采样不重叠的补丁。使用CNN来估计每个补丁的质量分数,并对补丁分数进行平均,以获得图像的质量估计。

1.1网络结构

1.2局部归一化

假设位置(i,j)isI(i,j)处像素的强度值,我们计算其归一化值ˆi(i,j)如下:

 P、Q是标准化窗口大小。结果表明,较小的标准化窗口大小可以提高性能。在实践中,我们选取P=Q=3,因此窗口大小比输入图像块小得多。注意,通过这种局部归一化,每个像素可能具有不同的局部均值和方差。

局部归一化很重要。我们观察到,使用更大的规范化窗口会导致更差的性能。具体来说,将整个图像块的均值和方差应用于每个像素的统一标准化将导致性能下降约3%。(值得注意的是,当使用CNN进行对象识别时,通常会对整个图像应用全局对比度标准化。归一化不仅缓解了早期常见的饱和问题,而且使网络对光照和对比度变化具有鲁棒性。)主要关注由图像退化引起的失真。

1.3池化

在每个特征映射上应用池,以将过滤器响应降低到较低的维度。具体来说,每个特征图都被合并为一个最大值和一个最小值,这与CORNIA类似。LetRki,j表示由第k个滤波器获得的特征图的位置(i,j)处的响应,

 合并过程将每个特征映射简化为二维特征向量。值得注意的是,尽管最大池已经很好地工作了,但引入最小池将性能提高约2%。

1.4RELU 非线性

ReLUs通过对输入应用阈值函数来代替sigmoid或tanh变换,采用了一种简单的非线性形式。请注意,ReLUs只允许非负信号通过。由于这个特性,我们不使用ReLUs,而是在卷积层和池层使用线性神经元(身份转换)。原因是最小池通常会产生负值,我们不想阻止这些负池输出中的信息。

1.5 学习

假设补丁图像的质量分数为原图像的质量分数(训练图像具有均匀的失真)。在测试阶段,我们平均每个图像的预测补丁分数,以获得图像级质量分数。与在给定数据集上使用整张图像相比,通过将小块图像作为输入,我们可以获得更多的训练样本,这尤其满足CNN的需要。

 验证集用于选择训练模型的参数并防止过度拟合。在实验中,我们在训练中进行了40个epotch的SGD,并在验证集中保留产生最高线性相关系数(LCC)的模型参数。

在我们的实验中,由于对所有层应用dropout显著增加了达到收敛的时间,我们只在第二个完全连接的层应用dropout

使用动量更新网络权重是一种广泛采用的策略。用以下形式更新权重。

 

 

举报

相关推荐

0 条评论