增量学习文献Essentials for Class Incremental Learning 阅读笔记_介绍增量学习之在线学习的英文文献-程序员宅基地

技术标签: 机器学习  深度学习  论文笔记  迁移学习  

Essentials for Class Incremental Learning

Sudhanshu Mittal Silvio Galesso Thomas Brox
University of Freiburg, Germany

引言

引言部分作者介绍了类别增量学习问题(CIL)算法的三个重要组成
(1)memory buffer用于存储旧数据集的exemplars;
(2)forgetting constraint用于减轻遗忘保存旧知识;
(3)learning system用于平衡新旧类别

作者指出基于贪婪平衡采样的方法(greedy balance sampler-based apporch,简称GDumb)可以很好解决除了类别增量学习以外的问题,但是在类别增量学习上表现不佳,因此提出互补理论。

此外作者发现过拟合的程度影响了遗忘的水平,对于防止过拟合的正则化技术,如果可以保存"secondary class information"或者说"dark konwledge"的可以更好提升增量学习能力。

相关工作

  1. iCaRl: Incremental classifier and representation learning(CVPR 2017)是一个特征表示学习和分类器学习的解耦合方法,技术路线使用知识蒸馏和重现(replay)的方法。
  2. Exemplar Selection:重现需要旧的数据,选择旧数据集的代表,通常使用herding heuristic(群体启发式?)算法。
    (1)Liu发明了样本参数化和模型联合训练的方法(?)
    (2)Isen发明了有效存储特征描述(feature description)而不是图片的方法
    本文使用随机从类别中抽取代表的方法。
  3. Forgetting Constraint: Li在Learning Without Forgetting中首次使用了知识蒸馏的方法来减少遗忘,后面的方法有
    (1)在特征层面的知识蒸馏
    (2)嵌入网络来修正语义漂移(?)
    (3)基于Hebbian图来保存特征空间的拓扑结构的方法(Hebbian:细胞A频繁而持续地参与调动细胞B,那么A对于B的连接将会加强)
    本文使用基础的知识蒸馏的方法。
  4. Bias Removal Approach:新旧类的不平衡(全连接层的输出节点会有专门针对新类的增加)会导致最后的输出结果偏向于新类。解决方法有
    (1)通过验证集添加一层偏差修正层
    (2)利用旧任务预测的统计数据修正最后一层的激活
    (3)将新类权向量的范数调整为旧类权向量的范数(?)
    (4)cos正则化
    作者指出这些方法都关注最后一层,但是灾难性遗忘影响的是整个网络,是整个网络偏向于新的类别,于是作者提出一个学习系统在不需要进行后处理的前提下解决偏差问题

CIL问题介绍

评价CIL模型优劣使用以下三个指标:

  1. Average Incremental Accuracy:进行了N步的增量学习后,求每一步增量学习的准确率的平均值。
  2. Forgetting Rate:分别使用N步增量学习后的模型 θ n \theta_n θn和第零步学习(在第一个数据集上训练)的模型 θ 0 \theta_0 θ0在第一个数据集 X t e s t 1 : s X_{test}^{1:s} Xtest1:s的准确率的差表示遗忘率。
  3. Feature Retention:在N步增量学习后冻结特征提取层,在整个数据集上训练,只变动全连接层,用其在测试集上预测的准确率和联合学习的准确率的差值来表示特征提取层保留的信息,符号为 R ϕ \mathbb{R}\phi Rϕ

方法路线

针对Related Work中的CIL问题的三个组成的详细方法:

  1. 针对选取Exemplar的问题,作者限制memory buffer大小固定为K,根据类别数量t,每个类别的exemplar的张数m = K / t,类别t增加m则减小,选取exemplar的标准是看图片的特征向量与当前的模型 θ s \theta_s θs预测该类别的平均特征向量的距离,距离远的会被优先丢弃。

  2. 针对Forgetting Constraint的问题,使用知识蒸馏损失和交叉熵损失。

  3. 针对Learning System的问题,在训练的过程前会冻结特征提取层 θ ^ s \hat{\theta}_s θ^s备用用于知识蒸馏损失计算,分别对新增数据集 X t X_t Xt和exemplar集 P P P进行预测,预测结果output按照就类和新类被拆分,分别计算四个Loss。
    (1) L X C E L_X^{CE} LXCE:新增数据集新类的交叉熵损失。
    (2) L X K D L_X^{KD} LXKD:新增数据集旧类的知识蒸馏损失。
    (3) L P C E L_P^{CE} LPCE:Exemplar中所有类的交叉熵损失。
    (4) L P K D L_P^{KD} LPKD:Exemplar中中旧类的知识蒸馏损失。
    该方法流程是这样的,用老模型预测新数据集结果并获取Exemplar set(模型0应该是在之后)-> 模型修改Fc层后预测新数据集一个batch的图片,获取的output分别只在新类中进行softmax并获取交叉熵损失,老类中进行softmax获取知识蒸馏损失(把冻结的老模型的预测输出结果作为ground truth) -> exemplar set中对所有类求交叉熵损失,对老类求知识蒸馏损失 ->最后加权相加

    传统方法是这样的,用新模型预测新数据集结果后获取Exemplar set,也就是说CCIL方法在预测新模型之前就获得了Exemplar set,其中既有老类图片也有新类图片,传统方法只可能有老类图片 -> Exemplar set和新类混合算出所有类的交叉熵损失 -> 在X和P上老类的知识蒸馏损失与CCIL方法相同。
    在这里插入图片描述
    比较来看的主要特点是提前获得新类的Exemplar set因此对于所有类的交叉熵损失的计算只含有Exemplar set、没有混合数据集而是求新数据集的新类交叉熵损失 L X n e w L_{X}^{new} LXnew

    作者的逻辑是把任务分为intra-task和inter-task。在新数据集X上求损失就是intra-task的功能,作者认为不需要旧类数据可以减小偏差的产生,我理解是新数据集肯定比exemplar set大不少的,混合起来会造成对新类的偏差,但是如果只预测新类,反而会降低这种偏差?(还是不太理解)

    对于P上求的损失就是inter-task的功能,因为P里包含了新旧的所有类。作者发现即使P很小,模型也能捕获新旧任务之间的关系。

  4. Transfer Learning(迁移学习)问题,作者认为直觉上当迁移学习能力较差的时候,训练集数据分布的改变对旧知识的伤害更大,这里作者选择使用降低学习率 的方法来缓解这种情况。可以理解为当一个人不会举一反三,那么当他面对“反三”中的新问题,努力啃下去的结果就是对之前任务的遗忘(修改了大量参数),所以迁移学习的能力也表达出一种“联想”的能力,而联想也是克服遗忘的重要手段。

改进增量学习中的特征表示

针对上面迁移学习的问题,作者希望找到鲁棒性强的特征代表,作者具体研究了“过拟合”和“信息丢失”对增量学习的影响。作者发现可以提升“次要信息”的正则化方法可以有效对抗遗忘。

对于“次要信息的问题”,作者利用CIFAR100将相似的类组合成的一个"superclass"的相关度量来代表次要信息,直觉上次要信息保留得越多,那么对于相似的类识别效果越好(举一反三)
在这里插入图片描述
具体的度量方法如下两点:

  1. SS-NLL:Secondary Superclass Negative Log Likehood,其实就是交叉熵损失。
    在这里插入图片描述
    c j c_j cj是superclass下的子类,如果预测结果属于superclass,则 1 c j ( y ) 1c_j(y) 1cj(y)等于1(传统的交叉熵是属于class才为1),log后应该还是求所有类的softmax输出,文章中还提到了它抑制了最大输出的对数,但是选取属于超类的部分计算 σ ^ k \hat{\sigma}_k σ^k,其实选不选,不属于超类的前面的系数 1 c j ( y ) 1c_j(y) 1cj(y)也等于0。不然 σ ^ k \hat{\sigma}_k σ^k相加等于1啊,而且选择属于superclass的,SS-NLl一直为1.SS-NLL越小则表明次要信息保留越好。
  2. SS-Acc:Secondary Superclass-Accuracy,也是抑制最大输出的对数计算准确率。SS-Acc越大则次要信息保留越好。
    在这里插入图片描述
    从实验结果很容易看出,伴随过拟合,SS-NLL变大,SS-Acc变小,遗忘率变高,特征保留度变小(这表明过拟合带来的问题也存在于特征提取层,只调整全连接层不能根治)。

既然过拟合会导致次要信息的丢失,那么对抗过拟合的正则化方法能不能提升增量学习能力呢?作者接下来尝试了四种正则化方法:
在这里插入图片描述
在这里插入图片描述
作者发现自蒸馏和图像增强的方法可以提升次要信息,提高平均准确率、减小遗忘率、提高特征保存能力。而标签平滑和Mixup则是有害的。作者认为标签平滑导致表征偏向于每个类的形心并保持每个类形心之间的距离是相等的,这牺牲了类之间的关系;而MIxup则人为强制定义了类之间的距离,导致了相同的结果。

实验结果

作者使用三个数据集进行实验:Cifar100、ImgeNet-100 datasets (using Numpy seed:1993)、完整的ImageNet dataset
对于前两者,作者设定模型为Resnet-34,初始学习50个类别,之后按照5/10个类别进行增量学习,memory buffer设定为2k
对于完整的ImageNet,作者设定设定模型为Resnet-18,初始学习500个类别,之后按照5/10个类别进行增量学习,memory buffer设定为20k

消解实验

在消解实验中,作者设置了使用知识蒸馏和不使用知识蒸馏两组,发现separate softmax(sep)和降低学习率都可以减小新旧模型的权重的L2范数差异,而且两者共用效果最好。
在这里插入图片描述
之后作者对Baseline-iCaRl进行补充,增加了最后一层的的cos正则化和adaptive weighting,(AW,随着学习类数的增加,知识蒸馏损失的权重越来越大)进行比较后发现CCIL比Baseline有卓越提升。
在和SOTA的比较中,CCIL也是平均准确率表现最好的。

结论

  1. 本文结合集中简单方法达成了最好的增量学习效果:Exemplar、Seq、KD、LLR、SD等。
  2. 本文研究认为增量学习前的模型也很重要,表征学习对于增量学习非常重要,应该寻求更好办法提升对次要信息的保留,就例如本文中使用SD和H-Aug的正则化方法。
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/weixin_51528791/article/details/134925159

智能推荐

HTML5 Web SQL 数据库_方式准则的定义-程序员宅基地

文章浏览阅读1k次。1、HTML5 Web SQL 数据库 Web SQL 数据库 API 并不是 HTML5 规范的一部分,但是它是一个独立的规范,引入了一组使用 SQL 操作客户端数据库的 APIs。如果你是一个 Web 后端程序员,应该很容易理解 SQL 的操作。Web SQL 数据库可以在最新版的 Safari, Chrome 和 Opera 浏览器中工作。2、核心方法 以下是规范中定义的三个_方式准则的定义

spring Boot 中使用线程池异步执行多个定时任务_springboot启动后自动开启多个线程程序-程序员宅基地

文章浏览阅读4.1k次,点赞2次,收藏6次。spring Boot 中使用线程池异步执行多个定时任务在启动类中添加注解@EnableScheduling配置自定义线程池在启动类中添加注解@EnableScheduling第一步添加注解,这样才会使定时任务启动配置自定义线程池@Configurationpublic class ScheduleConfiguration implements SchedulingConfigurer..._springboot启动后自动开启多个线程程序

Maven编译打包项目 mvn clean install报错ERROR_mvn clean install有errors-程序员宅基地

文章浏览阅读1.1k次。在项目的target文件夹下把之前"mvn clean package"生成的压缩包(我的是jar包)删掉重新执行"mvn clean package"再执行"mvn clean install"即可_mvn clean install有errors

navacate连接不上mysql_navicat连接mysql失败怎么办-程序员宅基地

文章浏览阅读974次。Navicat连接mysql数据库时,不断报1405错误,下面是针对这个的解决办法:MySQL服务器正在运行,停止它。如果是作为Windows服务运行的服务器,进入计算机管理--->服务和应用程序------>服务。如果服务器不是作为服务而运行的,可能需要使用任务管理器来强制停止它。创建1个文本文件(此处命名为mysql-init.txt),并将下述命令置于单一行中:SET PASSW..._nvarchar链接不上数据库

Python的requests参数及方法_python requests 参数-程序员宅基地

文章浏览阅读2.2k次。Python的requests模块是一个常用的HTTP库,用于发送HTTP请求和处理响应。_python requests 参数

近5年典型的的APT攻击事件_2010谷歌网络被极光黑客攻击-程序员宅基地

文章浏览阅读2.7w次,点赞7次,收藏50次。APT攻击APT攻击是近几年来出现的一种高级攻击,具有难检测、持续时间长和攻击目标明确等特征。本文中,整理了近年来比较典型的几个APT攻击,并其攻击过程做了分析(为了加深自己对APT攻击的理解和学习)Google极光攻击2010年的Google Aurora(极光)攻击是一个十分著名的APT攻击。Google的一名雇员点击即时消息中的一条恶意链接,引发了一系列事件导致这个搜_2010谷歌网络被极光黑客攻击

随便推点

微信小程序api视频课程-定时器-setTimeout的使用_微信小程序 settimeout 向上层传值-程序员宅基地

文章浏览阅读1.1k次。JS代码 /** * 生命周期函数--监听页面加载 */ onLoad: function (options) { setTimeout( function(){ wx.showToast({ title: '黄菊华老师', }) },2000 ) },说明该代码只执行一次..._微信小程序 settimeout 向上层传值

uploadify2.1.4如何能使按钮显示中文-程序员宅基地

文章浏览阅读48次。uploadify2.1.4如何能使按钮显示中文博客分类:uploadify网上关于这段话的搜索恐怕是太多了。方法多也试过了不知怎么,反正不行。最终自己想办法给解决了。当然首先还是要有fla源码。直接去管网就可以下载。[url]http://www.uploadify.com/wp-content/uploads/uploadify-v2.1.4...

戴尔服务器安装VMware ESXI6.7.0教程(U盘安装)_vmware-vcsa-all-6.7.0-8169922.iso-程序员宅基地

文章浏览阅读9.6k次,点赞5次,收藏36次。戴尔服务器安装VMware ESXI6.7.0教程(U盘安装)一、前期准备1、下载镜像下载esxi6.7镜像:VMware-VMvisor-Installer-6.7.0-8169922.x86_64.iso这里推荐到戴尔官网下载,Baidu搜索“戴尔驱动下载”,选择进入官网,根据提示输入服务器型号搜索适用于该型号服务器的所有驱动下一步选择具体类型的驱动选择一项下载即可待下载完成后打开软碟通(UItraISO),在“文件”选项中打开刚才下载好的镜像文件然后选择启动_vmware-vcsa-all-6.7.0-8169922.iso

百度语音技术永久免费的语音自动转字幕介绍 -程序员宅基地

文章浏览阅读2k次。百度语音技术永久免费的语音自动转字幕介绍基于百度语音技术,识别率97%无时长限制,无文件大小限制永久免费,简单,易用,速度快支持中文,英文,粤语永久免费的语音转字幕网站: http://thinktothings.com视频介绍 https://www.bilibili.com/video/av42750807 ...

Dyninst学习笔记-程序员宅基地

文章浏览阅读7.6k次,点赞2次,收藏9次。Instrumentation是一种直接修改程序二进制文件的方法。其可以用于程序的调试,优化,安全等等。对这个词一般的翻译是“插桩”,但这更多使用于软件测试领域。【找一些相关的例子】Dyninst可以动态或静态的修改程序的二进制代码。动态修改是在目标进程运行时插入代码(dynamic binary instrumentation)。静态修改则是直接向二进制文件插入代码(static b_dyninst

在服务器上部署asp网站,部署asp网站到云服务器-程序员宅基地

文章浏览阅读2.9k次。部署asp网站到云服务器 内容精选换一换通常情况下,需要结合客户的实际业务环境和具体需求进行业务改造评估,建议您进行服务咨询。这里仅描述一些通用的策略供您参考,主要分如下几方面进行考虑:业务迁移不管您的业务是否已经上线华为云,业务迁移的策略是一致的。建议您将时延敏感型,有快速批量就近部署需求的业务迁移至IEC;保留数据量大,且需要长期稳定运行的业务在中心云上。迁移方法请参见如何计算隔离独享计算资源..._nas asp网站