Advertisement

【那些年我们一起看过的论文】之《Handwritten Digit Recognition with a Back-Propagation Network》

阅读量:

该论文于20世纪80年代初发表,在计算机运算能力受限的背景下许多创新思想未能得到 immediate 实施然而前辈们的理论推导与证明仍是经典之作 BP 算法作为神经网络的基础核心方法之一堪称入门必修内容尽管渣本对其原理仍不甚了解但通过持续学习终能掌握其实质 BP 算法通过激励传播与权重更新两个核心环节不断迭代优化 直至实现输入与输出之间的精确映射 本文旨在展示无需额外预处理即可直接从图像数据中提取特征的技术优势 即使传统特征提取依赖人工设计 这种自学习能力为复杂模式识别提供了新思路 反向传播(backpropagation)作为一种关键机制 其本质在于计算损失函数对各层权重和偏置的梯度变化量 这一过程不仅有助于优化模型参数 还能清晰解释各层神经元对误差贡献的程度 具体而言 该方法能够系统地将误差信息从输出层逆传至输入层 并指导各层参数的调整方向 这种基于梯度的学习方式为神经网络的训练提供了坚实的理论基础

基于以往的知识背景可知,在网络收敛的过程中需要充分考虑该问题的相关先验知识。我们目标是尽可能地减少参数的数量。

基于‘邮政编码’平台分割提取出的数据集被采用作为训练与测试样本,并且具有高度真实性和可靠性。然而这些数据在经过分割后却存在明显缺陷:首先大量图像出现明显的识别误差或者难以辨认(即仅有少量错误);其次各图像之间的尺寸差异显著(即大小不一);最后各图像的亮度均值存在较大偏差(即灰度值分布不均)。因此为此必须实施一系列预处理工作以确保输入数据的一致性

我们的网络结构设计为多层次架构,在每一层都具备可调节性的同时相互间存在制约关系,并采用反向传播算法进行训练。

这里写图片描述

本研究引入了局部和卷积特征,并非仅局限于输入层,在后续隐藏层中同样适用。网络层次架构由一个用于提取特征的模块构成,在其后一层执行平均池化(下采样),四层层间交错配置。

网络架构在论文中通过文字描述替代了图像展示(因图像渲染效果欠佳),具体结构如下:输入为一张图片经由特征提取层处理后得到尺寸为4\times 24\times 24的空间;随后经过子采样层处理后空间尺寸变为4\times 12\times 12;再次经过特征提取层处理后得到大小为12\times 8\times 8的空间;接着经过子采样层处理后空间尺寸缩减至12\times 4\times 4;最终输出结果形成一个包含十个单元的一维向量

经过完成了30次训练任务后,在测试集中实现了准确率达到99%的结果。其中主要原因在于分割出来的数据集本身难以辨识。我们通过实验发现,在数字识别领域表现卓越。模型采用了较少的网络自由度,并且无需复杂的预处理步骤即可达到出色性能。同时这一成果也验证了反向传播网络在更大规模的任务中具有广泛的应用前景

全部评论 (0)

还没有任何评论哟~