Advertisement

Meta-Transfer Learning for Few-Shot Learning论文解析

阅读量:

基础信息

中文标题:用于少样本学习的元迁移学习

期刊:CVPR 2019

提出的问题

元学习常被用于少样本学习环境,但是深度神经网络很容易会过拟合;浅层神经网络,会限制性能

创新点

提出一个meta-transfer learning (MTL)方法

1、可以帮助深度神经网络更快的收敛,减少过拟合

(1)transfer:在大量数据上训练出来的DNN权重用两个轻量级的神经元作用于另一个任务:Scaling and Shifting (SS)缩放+移动(αX + β)

(2)有着很好的meta-training curriculum:更好的安排训练数据可以更好的收敛和实现更好的性能。传统的元批次包含很多随机任务, 而HT 元批次在线根据过去的失败任务以最低的验证精度重新采样较难的任务。

主要结构

阶段一:模型预训练阶段

随机初始化一个特征提取器和分类器(Resnet)

目的:学习特征提取器的参数。在后续两个阶段(元训练+元测试)参数会冻结,且分类器被丢弃(后续的分类目标不同)

阶段二:元训练(元迁移阶段)

目的:通过HT策略批量训练,来优化浅层网络Scaling and Shifting (SS)的参数

1、给多个任务T,优化分类器

2、Scaling and Shifting (SS)权重优化

3、进而优化预训练模型的特征提取器(进行缩放和移动)

Hard task (HT) meta-batch

传统的元批次由随机采样的任务组成

本文:有意选取每个任务中的失败案例,并将其数据重新组合为更困难的任务,以进行重新训练

1、元训练阶段中基础学习器(预训练模型)在每一个epoch用SS参数更新

2、元测试阶段SS参数更新,并得到M个类的准确率->确定准确率最低的前m个类

3、选择m类的新样本来训练

算法流程


全部评论 (0)

还没有任何评论哟~