End-to-End Kernel Learning withSupervised Convolutional Kernel Networks笔记
论文提出了一种基于多层核机的图像表示方法,解决了传统核方法与端对端学习不适配的问题。该方法通过在有监督条件下构造核,将图像的局部邻域映射到RKHS中,并利用反向传播优化网络参数。实验表明,该方法在图像分类和图像超分辨率任务中表现优异,显著提升了性能。论文还探讨了核方法与神经网络的结合,提出了新的卷积神经网络架构,并通过监督学习优化子空间映射,为解决核方法的计算复杂性和端到端学习的不适配问题提供了创新性解决方案。
keywords: CKN, 监督式
作者: Julien Mairal
发表时间: 2016
方法: 将图像的局部邻域映射至RKHS空间中,生成特征映射。该过程通过将局部邻域映射至RKHS空间中,生成特征映射。在生成的特征图像上进行线性池化等价于在子空间中进行线性池化操作。通过将各层核进行组合汇总,完成多层映射。随后,采用有监督学习策略,结合代价函数和反向传播算法对网络进行优化训练。
源代码: https://gitlab.inria.fr/mairal/ckn-cudnn-matlab
笔记: https://app.yinxiang.com/shard/s62/nl/21136003/e3d099d2-3489-4168-803f-9138265cf142
精读: 是的
结论: 无监督学习构建CKN,监督学习优化网络结构
问题: 如何解决核方法与端到端学习天然不适配的问题
Summary
该论文提出了一种基于多层核机 的图像表示方法。传统核方法将数据表示与预测任务解耦,而论文提出的方法是在有监督学习 的框架下构建核函数。首先,论文对无监督学习的自适应核机(CKN)进行了性能优化,随后通过推导反向传播规则,利用有标签训练数据进行学习。最终,该模型被定义为一种新型的自适应核机,其核心在于每一层的优化滤波器等价于在再生核希尔伯特空间(RKHS)中学习线性子空间。该模型在图像分类实验和图像超分辨率任务中进行了性能评估。
Reaserch Objectives/Background/Problem Statements
基于正定核的非参数模型在神经网络重新活跃之前广受欢迎,其优点在于具有很强的通用性,主要得益于数据表示与预测任务的解耦关系,同时能够自然地调控学习能力,从而有效防止过拟合。然而,核方法也存在一些局限性,首先,计算量极大,为解决这一问题,提出了利用核矩阵的低秩近似或平移不变核的随机采样等解决途径;其次,核方法与端到端学习的不相容性,这也是本文需要重点突破的问题。
本文旨在图像建模场景下,针对核方法与端到端学习的不匹配性的问题进行研究。
Methods
论文方法基于CKN。
类似于多层核描述符hierarchical kernel descriptors:
- 局部图像的邻域通过kernel-based mapping technique 被映射到RKHS中的点集合中。
- 多层表示通过kernel-based composition technique 被构建,生成一系列的特征映射,这些映射与神经网络的类似,但具有无限维度的特点。
为了让图像模型便于计算处理,卷积核网络架构提供了一种近似方案:可以理解为一种在无监督学习框架下形成的特定卷积神经网络架构。
为了实现端到端的学习目标,我们采用了基于核空间映射的判别子空间学习方法。具体而言,每一层的线性子空间通过优化监督损失函数实现联合优化,从而构建了一个具有非标准参数化特性的新型卷积神经网络(CNN)。在无监督学习框架下,我们采用经典的核近似技术,通过简化子空间学习规则,使得子空间的实现过程更加高效且可靠。
前人的工作:
-
arc-cosine kernel family
- a multilayer kernel can be derived through kernel composition
- unsupervised representation:
- hierarchical kernel descriptor families
- convolutional kernel network models
-
监督学习:
- MKL——我们的方法在kernel设计中引入了监督学习的机制,与基于深度高斯过程的贝叶斯社区进行了整合,以介绍Frequentist方法。
- 通过backpropagation算法,我们成功实现了Fisher核的计算。
Constructing Complicated Hierarchical Subspaces Using Convolutional Kernel Networks

Local patches, also referred to as receptive fields, are mapped into the reproducing kernel Hilbert space H1 through the kernel trick. They are then projected into the finite-dimensional subspace F1, which is defined as the span of ϕ(z1) through ϕ(zp1).


End-to-End Kernel Learning with Supervised CKNs


Evaluation
进行的实验是超分辨率 和图像分类。
