0
点赞
收藏
分享

微信扫一扫

long_tailed论文整理

芥子书屋 2022-05-05 阅读 44

经典论文

Decoupling Representation and Classifier for Long-Tailed Recognition [ICLR2020]

解耦论文GitHub

  1. two-stage 解耦表征学习+分类
  • Classifier Re-training (cRT):re-train the classifier with class-balanced sampling
  • t-normalized classifier (t -normalized):出发点为分类器对head类的权重值一般较大,降低head类对应的神经元的weight就可以降低对head类预测的偏向。
    权重标准化
    以下实验也证明了这个想法:
    权重实验
  • Learnable weight scaling (LWS):上面的norm方法中的t为超参数,这里LWS中作为可学习的参数。
    LWS
  • Nearest Class Mean classifier (NCM):求出每个类的聚类中心,再与聚类中心算相似度进行分类。
  1. 效果
    结果
  2. 总结
  • 思想:解耦后,表征学习学到合理的特征后,只需调整分类器的划分边界bias即可对长尾数据实现较好的分类。
  • 采用instance-balanced去学习表征效果最好
  • 相较于joint方法,4种分类器解耦方法在many类上的acc均下降
  • all,few和medium采用t-norm调整分类器效果最好

Bag of Tricks for Long-Tailed Visual Recognition with Deep Convolutional Neural Networks [AAAI 2022]

Bag of Tricks Github

举报

相关推荐

0 条评论