aiken's blog
  • home
  • archives
  • search
  • Aiken's Blog
  • home
  • posts
  • tags
  • categories
  • archives
  • about
  • search
  • linklog
Home » Tags

Open-World Learning

OWL-survey

@AikenHong2021 OWL 分析现有的OWL特点,和当前自己的研究做一个区分,也汲取一下别人的研究的要点, Reference arxiv @ self-supervised feature improve open-world learning arxiv @ open-world semi-supervised learning arxiv @ open-world learning without labels arxiv @ unseen class discovery in open-world classification arxiv @ Open-World Active Learning with Stacking Ensemble for Self-Driving Cars www @ open-world learning and application to product classification cvpr @ open world composition zero-shot learning cvpr @ Towards Open World Object Detection [cvpr](Large-Scale Long-Tailed Recognition in an Open World (thecvf.com) ) @ Large-Scale Long-Tailed Recognition in an Open World Conclusion Papers Mulit Open world Learning Definition ...

November 12, 2021 · 1 min · 180 words · aikenhong ·  Survey ·  Open-World Learning
#Survey #Open-World Learning

OW Object Detector

@Aiken 2021 框架撞车系列,主要看看这一篇论文中怎么解决如下的问题👇,并从中借鉴和优化的我框架设计 思路分析 Motivation 模型实现的主要的两个TASK: Open Set Learning : 在没有明确监督的时候,将尚未引入的目标类别识别为未知 Incremental Learning:类别增量学习 实现这两个问题的主要思路: 自动标注:借鉴RPN的class-agnostic,以及检测和分类的显著性指标的差异,找到并自动标注NewClass **对比聚类:**使用prototype feature来进行聚类,同时计算Distance损失 it seems like contain a unknown prototype. **energy based:**亥姆霍兹自由能公式? ENERGY BASED Feature: $F$ , Label: $L$ , Energy: $E(F,l)$ 能量函数倾向于将已知的类别分类到低熵的分布上,然后我们可以根据特征在能量空间上的划分来区分新类和旧类。然后我们可以根据logits表达的softmax形式,找到输出和Gibbs distribution的相关性: $$ p(l \mid \boldsymbol{f})=\frac{\exp \left(\frac{g_{l}(\boldsymbol{f})}{T}\right)}{\sum_{i=1}^{\mathrm{C}} \exp \left(\frac{g_{i}(\boldsymbol{f})}{T}\right)}=\frac{\exp \left(-\frac{E(\boldsymbol{f}, l)}{T}\right)}{\exp \left(-\frac{E(\boldsymbol{f})}{T}\right)} $$ 通过这个相关性,我们对自由能进行一个定义,以logits的形式表达 ...

September 28, 2021 · 1 min · 71 words · aikenhong ·  Open-World Learning
#Open-World Learning

OW-openmix

@Aiken 2021 究极万恶的撞车论文 Intro Motivation :Tackle the problem of 发现无标注数据中与给定(已知)类别不相交的新类。 Related Research: 现有的方法通常1. 使用标记数据对模型进行预训练; 2. 无监督聚类在未标记的数据中识别新的类 作者认为label带来的essential knowledge在第二步中没有被充分学习利用到,这样模型就只能从第一步的现成知识中获益,而不能利用标记数据和未标记数据之间的潜在关系 Hypothesis: 有标记的类别和无标记的类别之间没有Overlap,这样导致在两个类别之间很难建立学习关系,(为啥我感觉这个说的都是屁话) Solution: Openmix:将标注的数据和未标注的数据同时混合起来得到一个联合标签的分布中,用两种方式来动态合成示例: 我们混合标记和未标记数据作为Training Img,混合了已知类别的先验生成的伪标签会比无监督情况下生成的伪标签跟家的可靠?防止在错误的伪标签前提下发生过拟合 在第一步的时候我们鼓励具有高类别置信度的无标记example作为可考虑的类别,然后我们将这些samples作为anchor,并将它们进一步的和无标注的samples整合,这使得我们能够对无标注数据产生更多的组合,并发现更精细的新类关系。 Detail 果然在混合的方式上和MixUp的策略进行比对了,就是diss了Mixup使用伪标签的情景可能会进一步的引入不确定性,导致算法的效果反向优化,就是再label和unlabeled数据上混用mixup,而不是单纯的对unlabel数据集进行混合。 首先将没有overlap的标签表现为联合标签分布再进行混合,也就是加长onehot,这样的标签的优越性在?对于unlabelled data引入了确定性,防止标签容易过拟合。也就是给伪标签加入了一个锚定,让他能够变化的更平滑 这尼玛这张图看了不久完事了,bibi一大堆啥的呢。主要分析一下三个损失函数代表的是什么意思。 ...

June 23, 2021 · 1 min · 43 words · aikenhong ·  Open-World Learning
#Open-World Learning
© 2025 aiken's blog Licensed under CC BY-NC 4.0 · Powered by Hugo & PaperMod Visitors: Views: