Advertisement

Systematic Literature Review(SLR)

阅读量:

SLR是对现有研究成果的综述,具有客观、严谨和公开的特点。下文将对SLR的具体方法和过程进行介绍。

确定综述问题

首先,我们需要选择一个自己感兴趣的领域,进而在该领域下确定一个自己希望进行深入研究的问题。假定我们对图像检索算法感兴趣,并希望对基于内容的图像检索算法进行深入研究。这样一来,我们就可以将"基于内容的图像检索算法的主要实现方法和优缺点"确定为我们要进行综述的问题。

文献检索

在确定了综述问题后,就需要以此为基础进行文献检索。首先,我们可以根据自己研究问题的所属领域,确定使用的数据库。图像检索算法属于计算机领域的研究问题,而相较于中文文献,该领域内的英文文献具有更高的整体水平。因此,可以在ACM Digital Library,IEEE Xplore Digital Library等高质量外文数据库中进行文献检索。

在检索的过程中,我们可以将graph hashing,image retrieval作为关键词,并通过题目和摘要初步判断文献是否与我们感兴趣的问题相关。如果我们成功检索到一篇高质量论文,还可以参考其摘要信息,来改进我们用于检索的关键词。此外,也可以选择该文章的参考文献进行阅读。

需要注意的是,部分领域的论文更新速度很快,因此如果希望了解最新的研究结果,需要关注文献的发表日期。但如果希望了解比较经典的算法,则可阅读较早发表的文献。

文献阅读和综述

完成文献检索后,我们就可以对检索到的文献进行阅读,并从其中选取高质量的内容进行深入理解和分析,进而形成文献综述。图像检索算法主要分为基于文本的图像检索和基于内容的图像检索两类,前者关注图像的描述性信息,而后者关注图像本身的特征。针对基于内容的图像检索算法的文献综述如下(在此只选取了几种典型的算法):

单张图像即可能蕴涵大量的特征信息,因此在大数据的背景下,具有存储成本低、检索速度快等特点的哈希算法已经被广泛应用于近似图像的检索之中。哈希算法将图像视为原空间的数据点,并将其映射到二进制空间,但在此过程中尽量保留点之间的相对距离信息。下面将描述局部敏感哈希(LSH),核化局部敏感哈希(KLSH)和可扩展图哈希(SGH)算法的主要实现思路及优缺点。

局部敏感哈希(Locality Sensitive Hashing,LSH)算法[1]的主要实现思路是将原始数据空间中的两个相邻数据点通过相同的映射或投影变换后,使得这两个数据点在新的数据空间中仍然相邻的概率很大,而不相邻的数据点被映射到同一个桶的概率很小。此方法的优势是哈希函数简单易实现,且计算速度快。但由于这是一种非数据驱动型算法,因此检索精度不高。

核化局部敏感哈希(Kernelized Locality-Sensitive Hashing,KLSH)算法[2]对LSH进行了扩展和泛化,使之适应任意的核函数,并且使得对于一大类有用的相似性函数保护算法的次线性时间相似性搜索保证成为可能。此外,利用核函数和图像库中的稀疏集来构造随机映射,使得可以选择任意核函数作为相似度度量函数。与LSH算法相比,该算法考虑到了数据本身所具有的结构,但由于核函数的引进,使计算复杂度大大增加。

可扩展图哈希(Scalable Graph Hashing,SGH)算法[3]是近年最新提出的哈希算法。该方法通过对训练集的数据进行学习,求得哈希公式中的主要参数,之后通过偏移值调整核空间的分布情况,进而最终形成哈希公式。之后,将该公式应用于训练集和测试集中的数据点,使得特征转换为二进制码的形式。该算法同样具有准确度高和速度快的特点。但公式中的参数设定会影响检索效率和最终的检索结果,因而需要在参数选择上进行权衡。

参考文献:

[1] Indyk P, Motwani R. Approximate nearest neighbors: towards removing the curse of dimensionality[C]//Proceedings of the thirtieth annual ACM symposium on Theory of computing. ACM, 1998: 604-613.

[2] Kulis B, Grauman K. Kernelized locality-sensitive hashing for scalable image search[C]//2009 IEEE 12th international conference on computer vision. IEEE, 2009: 2130-2137.

[3] Jiang Q Y, Li W J. Scalable graph hashing with feature transformation[C]//Proceedings of IJCAI. 2015.

全部评论 (0)

还没有任何评论哟~