Advertisement

论文笔记:ImageNet classification with deep convolution neural networks

阅读量:

1、此种模型参加了2010,2012的ILSVRC(ImageNet Large Scale Visual Recognition Competition)比赛,错误率对比如下:

在训练模型的过程中,借助配备有NVIDIA GTX 580 3GB显卡的计算设备进行训练大约五至六天后完成。 authors claim that if they were not dependent on GPU hardware acceleration, the results might have been even more significant.

在结构设计上, 该网络包含五个连续的卷积层和三个全连接层. 具体而言, 前两组卷积(即 C1 和 C2)后均接有下采样模块, 而后接的第三、第四和第五个卷积模块(即 C3、C4 和 C5)未配置下采样功能. 结构图如图 3所示.

在结构设计上, 该网络包含五个连续的卷积层和三个全连接层. 具体而言, 前两组卷积(即 C1 和 C2)后均接有下采样模块, 而后接的第三、第四和第五个卷积模块(即 C3、C4 和 C5)未配置下采样功能. 结构图如图 3所示.

4、在激活函数的选择方面,比较了三种常用函数:

ReLU函数(Rectified Linear Units)及其变体包括sigmoid函数和双曲正切激活函数,在多次实验对比分析中发现ReLU表现最佳。

5、LRN(Local Response Normalization)局部响应归一化同样也能减少错误发生。

在选择池化层的参数时, 通常建议设置更大的核尺寸, 这是因为当卷积核在特征图上滑动时, 各相邻区域的响应具有一定程度的重叠, 这种特性有助于减少误判的可能性。

7、该文章阐述了防止过拟合的两种方法:其一是数据增强技术(Data Augmentation),这种方法适用于训练模型的数据集;另一种方法是Dropout技术。

8、作者在实验中获得了重要启发。该研究证实了模型深度度量对提升实验效果具有重要意义。通常情况下,在资源允许的情况下当然地建议尽可能提高模型深度度量。

具体的如何操作以后有时间再添加,

全部评论 (0)

还没有任何评论哟~