论文笔记 —— 《A Survey on Transfer Learning》
发布时间
阅读量:
阅读量
论文笔记 ——《A Survey on Transfer Learning》
知识点
-
迁移学习存在的领域最突出的是数据挖掘(如ACM KDD IEEE ICDM PKDD)机器学习(如ICML NIPS ECML AAAI IJCAI)以及机器学习与数据挖掘应用(如ACM SIGIR WWW ACL)。
-
域差异可以通过特征空间或边际分布概率的不同来刻画 即两个指标特征 分布。
-
域相关性 显式地或隐式地反映了它们之间的关系。
-
负迁移 其对目标学习产生的影响是负面的。
-
目前关于迁移学习的研究主要集中在如何选择源域以及如何实现迁移 这类现有算法通常假设源域与目标域之间存在某种关联性 并专注于改进不同分布下的泛化能力 但并不意味着假设两者的特征空间必须完全一致。
-
归纳型迁移学习 inductive transfer learning 是一种研究框架 它强调无论源域与目标域是否存在差异 目标任务都与源任务不同 在这种情况下 需要在目标域中拥有大量标记数据或者没有标记数据 来诱导出适合目标预测模型的工作方案。
-
转导迁移学习 transductive transfer:
原任务与目标任务具有相同的性质 (则分为特征类型或数据分布的不同)。在这种情况下,则分为特征类型或数据分布的不同的情况进行研究。在这种特定条件下,则指在目标领域中没有可获得标注样本的情况(而源领域中拥有丰富的标注样本)。
目标任务与源任务存在关联性差异 但又与之相关联,在这种背景下主要针对特定领域中的无监督学习问题展开研究。在此过程中两个领域的数据均未提供标注信息


9. 根据内容又可分为四类:
实例重加权
实例重加权

以上这三个分类与四个内容之间可以相互配对,在每一种情况下都拥有特定的应对策略。
当前面临的问题在于如何防止负面迁移。
- 基于适当的"知识可转移能力"度量指标,在分析现有数据后我们能够筛选出最适合当前目标任务的源领域或相关任务,并在此基础上完成知识提取工作。
- 通过计算不同领域之间的距离,在实际应用中我们可以将这些领域按照相似程度分组以便分析它们之间的关联,并以此帮助评估知识的迁移效率。
全部评论 (0)
还没有任何评论哟~
