LT Collection
LT-Collections
@AikenHong 2021
Code of must of those methods
We will analysis those tricks on LT situation, and Analysis why it works.
在进行LT矫正的任务中,有几种常见的trick在各种模型中被使用,我们会对这几种不同的trick进行介绍和分析。
其实在数据量少这一方面LT和Few-Shot是有一定的OverLap的,可以参考以下那边的思路perhaps
Introduction
通常情况下这种严重的类别不平衡问题会使得模型严重过拟合于头部,而在尾部欠拟合
首先介绍 bag of tricks 这篇论文中总结了一些常用的Trick,并组合出了最佳的一套trick
经过该文实验总结,Trick组合应该是[1]`:
- 在前几个epoch应用input mixup数据增强,然后后面fine-tuning;
- (基于CAM的)重采样来重新训练分类器;
实际上就是MixUp + Two-Stage的策略,后续对Mix-up这个策略带来的作用要进行补充了解一下