aiken's blog
  • home
  • archives
  • search
  • Aiken's Blog
  • home
  • posts
  • tags
  • categories
  • archives
  • about
  • search
  • linklog
Home » Tags

Survey

IL Collection

@AikenHong 2022 [[Draft/IL 总结]]: Thx 2 wyz to provide some clus for learnning Incremental Learning. In this Doc, we may add some related knowledge distill works which is used to design our Incremental Structure. 在这个文档中,我们可能还会添加一些知识蒸馏的相关工作的文献,这些实际上对于我的增量学习架构有一个比较大的启发 DER SPPR 没有 get 到方法到底是怎么做的 Introduction 👿 在很多视觉应用中,需要在保留旧知识的基础上学习新知识,==举个例子==,理想的情况是,我们可以保留之前学习的参数,而不发生==灾难性遗忘==,或者我们基于之前的数据进行协同训练,灾难性遗忘是 IL 中最核心的问题。 Incremental 的基本过程可以表示如下[4]: ...

January 4, 2022 · 5 min · 984 words · aikenhong ·  Incremental Learning ·  Survey
#Incremental Learning #Survey

WYZ-IL-Collection

: hammer: 王耀智 Regularization 系列方法 这类方法旨在添加一些正则化损失来解决 catastrophic forgetting 的问题。 Weight Regularization 这类方法一般是对网络中每个参数的重要性进行评估,根据每个参数的重要性和梯度信息更新参数。 典型的文章为 EWC . PS: 这类文章我也没有读过。 Data Regularization 这类方法专注于记住特征表示,通常是结合 Hinton 的知识蒸馏损失函数使得模型记住旧类别的知识,解决 catastrophic forgetting。 推荐以下几篇文章: LwF(Learning without forgetting),这篇文章在我看来是增量学习的开山之作,第一次给增量学习找到了一个比较好的方向,也是第一次将知识蒸馏应用到增量学习上; PODNet CVPR2020 ,这篇文章最大的贡献在我看来是设计了一个全新的蒸馏损失函数,最终结果也是达到了当时的sota,甚至目前也是几个榜单的sota。 Rehearsal 系列方法 这类方法主要的想法是使用一些旧类别的数据,在新类别到来时使用新旧数据一起训练模型,根据旧类别数据的真假分为以下两种方法。 Pseudo rehearsal 这类方法通常是在学习旧类别的同时,训练一个生成模型,可以生成旧的类别数据,在新类别数据到来时,生成相当数量的旧类别数据,一起训练新模型。 这里推荐一篇文章:Continual learning with deep generative replay。 PS:这个小类别的论文我也没有太关注,个人不是很推荐这类方法。 Save real data 这类方法是开辟一个内存空间,空间中保存旧类别的少部分训练数据,在新类别到来时,使用内存空间的数据与新数据共同学习,按照对空间的使用方法不同可分为: Exemplar Rehearsal 这类方法是将新旧数据混合,共同作为训练数据,一起训练模型,使得模型能够保持旧类别的知识。 但是在训练过程中新旧数据的类别数量是不均衡的,这也催生了我下面会说到的一大类解决方法。 这种方法推荐的论文是 iCaRL,这篇论文是 exemplar rehearsal 的开山之作,第一次提出了内存空间这个概念,也提出了一个非常有效的内存选择策略(herb),并且也是第一个使用特征作为分类依据的方法,我个人认为是继 LwF 之后又一个将 IL 推到一个新的高度的方法。 Gradient Rectification 这类方法我称之为 Gradient Rectification,其主要思路是模型每次更新的梯度由 shared gradient 和 task-specific gradient 组成。分别代表所有类别的共性信息和某一个类别的特性信息,在新类别学习时借助内存空间中的数据获得旧类别的两项梯度,在更新时对梯度进行修正,力求做到不增加共享梯度代表的损失,尽量减少类别特定梯度代表的损失。 ...

January 3, 2022 · 1 min · 154 words · aikenhong ·  Incremental Learning ·  Survey
#Incremental Learning #Survey

LT Collection

LT-Collections @AikenHong 2021 Code of must of those methods We will analysis those tricks on LT situation, and Analysis why it works. 在进行LT矫正的任务中,有几种常见的trick在各种模型中被使用,我们会对这几种不同的trick进行介绍和分析。 其实在数据量少这一方面LT和Few-Shot是有一定的OverLap的,可以参考以下那边的思路perhaps Introduction 通常情况下这种严重的类别不平衡问题会使得模型严重过拟合于头部,而在尾部欠拟合 首先介绍 bag of tricks 这篇论文中总结了一些常用的Trick,并组合出了最佳的一套trick 经过该文实验总结,Trick组合应该是[1]`: 在前几个epoch应用input mixup数据增强,然后后面fine-tuning; (基于CAM的)重采样来重新训练分类器; 实际上就是MixUp + Two-Stage的策略,后续对Mix-up这个策略带来的作用要进行补充了解一下 Rebalance 对于ReBalance的方法,实际上就是从 data和 update两个角度来缓解Unbalance本身,通过从数据量上达到重新均衡,或者基于Loss使得bp过程中赋予Tail更高的权重来达到优化过程的平衡。 前者称为rebalance,后者则为reweight. ...

December 22, 2021 · 4 min · 690 words · aikenhong ·  Survey ·  Long-Tailed Learning
#Survey #Long-Tailed Learning

FSL前期调研

文章的部分内容被密码保护: --- DON'T MODIFY THIS LINE --- 主要是limited labels & Few Samples & Data programing Weakly supervised learning semi-supervised in video field if we can recoding this work? 多指标下降(LOSS的耦合或者循环的选择)、相关的CV最新论文等等会在后续关注 元学习、浅层神经网络的概念等等 semi-supervised PART1 Limited Labels (base on LiFeiFei‘s reference) in this part we may list the paper which is useful for my recoding. 还有一些其他重要的可能在对论文进行重新精读的时候要记得注意reference:就比如说在loss变换和决策树生成那一块。 distant supervision(it’s kind of early) can be another baseline for our method, we need to understand how this method work for that situation distant supervisor到底是什么机制可以去CSDN什么的看一下 ...

November 29, 2021 · 3 min · 549 words · aikenhong ·  Survey ·  FSL
#Survey #FSL

Survey for Few-Shot Learning

@aikenhong 2020 @h.aiken.970@gmail.com 另一个综述文章:https://zhuanlan.zhihu.com/p/61215293 对该文中一些内容有一些补充,可以看看 FSL简介:https://blog.csdn.net/xhw205/article/details/79491649 GCN用于FSL:https://blog.csdn.net/qq_36022260/article/details/93753532 Abstract FSL的根本目的就是弥合人工智能和人类之间的鸿沟,从少量带有监督信息的示例中学习。像人类一样有很高的泛化能力。这也能解决在实际应用场景中,数据难以收集或者大型数据难以建立的情景。 FSL的核心问题是:经验风险最小化器不可靠;那么如何使用先验知识去解决这个问题? 三个主要的角度: 数据:使用先验知识增强数据的监督经验 模型:使用先验知识来降低假设空间 算法:使用先验知识来改变搜索最佳假设(来进行搜索?) 现阶段针对FSL提出的一些相关的机器学习方法: meta-learning; embedding learning; generative modeling etc. 本文的主要工作: 基于FSL的原有设定,在现阶段的FSL发展上给出正式定义,同时阐明具体目标以及解决方式 通过具体示例列举和FSL的相关学习问题,比较了相关性和差异性,更好的区分问题 指出核心问题:经验风险最小化器不可靠,这提供了更系统有组织的改进FSL的方向。 经验风险最小化器👉:基于ML中的错误分解来分析的 整理,更好的理解 未来方向 Notation and Terminology 一般基于参数方法(因为非参数方法需要大量数据),在假设空间中搜索最优假设,并基于基于标签的Loss Function 来衡量效果。 Main Body Overview 2.1:具体定义&示例 2.2:相关问题和FSL的相关性和差异 2.3:核心问题 2.4:现有的方法如何处理这个问题 ...

November 29, 2021 · 5 min · 912 words · aikenhong ·  Survey ·  FSL
#Survey #FSL

OWL-survey

@AikenHong2021 OWL 分析现有的OWL特点,和当前自己的研究做一个区分,也汲取一下别人的研究的要点, Reference arxiv @ self-supervised feature improve open-world learning arxiv @ open-world semi-supervised learning arxiv @ open-world learning without labels arxiv @ unseen class discovery in open-world classification arxiv @ Open-World Active Learning with Stacking Ensemble for Self-Driving Cars www @ open-world learning and application to product classification cvpr @ open world composition zero-shot learning cvpr @ Towards Open World Object Detection [cvpr](Large-Scale Long-Tailed Recognition in an Open World (thecvf.com) ) @ Large-Scale Long-Tailed Recognition in an Open World Conclusion Papers Mulit Open world Learning Definition ...

November 12, 2021 · 1 min · 180 words · aikenhong ·  Survey ·  Open-World Learning
#Survey #Open-World Learning

Attention Mechanism

@Aiken 2020.9.16 对基本注意力机制的一些资料和理解做一些简单的汇总,着重分析基本思想原理,应用和实现(即 structure),还有一些Weakness和相应的解决方案。 1.TODO-List: 根据Lil’Log的Attention?Attention!进行初步的整理 各个分类的具体含义分开整理,理解一部分整理一部分,可能结合实际的应用去整理吧。 其中很重要的一点是数学分析的部分,需要对数学原理进行整理和领会。 What’s Attention In Deep Learning 在某种程度上,注意力是由我么如何关注视觉图像的不同区域或者我们如何关联同一个句子中的不同单词所启发的:针对于问题的不同,我们会对图像的某些具体的区域重视(某些区域在视觉中呈现高分辨率,而另一些则是低分辨率的情况),或者句子中的某些词重视的情况。 可以解释一个句子中紧密的上下文单词之间的关系,比如我们看到eating就会期待看到food,而color对于我们来说就没有那么重要。 ...

September 28, 2021 · 2 min · 332 words · aikenhong ·  Machine Learning ·  Survey ·  ML-Backbone
#Machine Learning #Survey #ML-Backbone

Pooling

DownSampling:Pooling的全面调研 @Aiken 2021 笔记摘录: 深度神经网络中的池化方法:全面调研(1989-2020) - 知乎 ;相同论文的简单中文Version 16页综述,共计67篇参考文献。网络千奇百怪,但基础元素却大致相同!本文全面调研了1989至2020年一些著名且有用的池化方法,并主要对20种池化方法进行了详细介绍(这些方法,你都知道么?) 注1:文末附【计算机视… 来自 https://zhuanlan.zhihu.com/p/341820742 原文:《Pooling Methods in Deep Neural Networks, a Review》 整合2 池化的根本目的(Motivation) 卷积神经网络是DNN的一种特殊类型,它由几个卷积层组成,每个卷积层后都有一个激活函数和一个池化层。 池化层是重要的层,它对来自上一层的特征图执行下采样,并生成具有简化分辨率的新feature maps 。该层极大地减小了输入的空间尺寸。 它有两个主要目的。 首先是减少参数或权重的数量,从而减少计算成本。 第二是控制网络的过拟合。 池化可以增加网络对于平移(旋转,伸缩)的不变性,提升网络的泛化能力。 增大感受野; 降低优化难度和参数数目, 理想的池化方法应仅提取有用的信息,并丢弃无关的细节。 特征不变性、特征降维、在一定程度上防止过拟合,更方便优化 主流的池化方法 Average Pooling 平均池化 没啥好说的,就是每个block取一个均值。如下图所示:更关注全局特征 Max Pooling 最大值池化 更关注重要的局部特征 ...

June 23, 2021 · 2 min · 232 words · aikenhong ·  Pooling ·  Survey ·  ML-Backbone
#Pooling #Survey #ML-Backbone

经典深度学习与机器学习算法

文章的部分内容被密码保护: --- DON'T MODIFY THIS LINE --- LINK1 深度学习部分 DenseNet 任意的两层之间都存在直接的链接,每一层的输入都是前面的所有层的输出的并集,而该层学习的特征图也会是后面所有层的输入,DenseBlock中需要Feature_map保持一致; Block与Block之间的降采样则使用transition layer,使用BN,1*1的 conv,Pooling来降维 优缺点: 省参数,省计算 抗过拟合,泛化能力强 需要保存Feature占显存 EfficientNet 针对卷积神经网络的模型拓展,可以通过:1 增加网络规模可以、 增加模型宽度,增加模型深度,增加输入图像的分辨率,但是如何去人工调整这个比例和参数,比较麻烦, 实验发现ConvNet缩放过程中平衡网络宽度、深度、和分辨率的维度是很重要的 EfficientNet就是对这些的合理组合,复合型的模型扩展技术集合神经结构搜索技术获得 关键技术复合扩张技术 所以本文提出了复合扩张方法,这也是文章核心的地方, $$ \alpha,\beta,\gamma $$ 是我们需要求解的一组参数,如下图公式,带约束的最优参数求解。 $$ \alpha,\beta,\gamma $$ 分别衡量着depth, width和 resolution的比重,其中 $$ \beta,\gamma $$ 在约束上会有平方,是因为如果增加宽度或分辨率两倍,其计算量是增加四倍,但是增加深度两倍,其计算量只会增加两倍。 ...

April 23, 2021 · 4 min · 799 words · aikenhong ·  Survey
#Survey
© 2025 aiken's blog Licensed under CC BY-NC 4.0 · Powered by Hugo & PaperMod Visitors: Views: