人工神经网络的发展方向,人工神经网络概述

人工神经网络的发展历史
在1943年,W.S.McCulloch与W.Pitts一起开发出了神经网络与数学模型,并将该体系命名为MP模式
他们基于MP模型提出了一种形式化的方法来描述神经元及其网络拓扑结构,并验证了单个神经元能够执行基本逻辑运算。1949年时心理学家提出了突触接触强度可变的假设。
上世纪六十年代末,并非仅限于单一技术的发展阶段的人工神经网络经历了长足的进步;更为完善的人工神经网络模型被提出,并非仅限于感知器以及自适应线性元件等技术
Minsk等人深入研究了以感知器为代表的神经网络系统的功能及其局限性,并于1969年出版了专著《Perceptron》,明确指出了感知器无法处理高阶谓词问题。
该论点对神经网络研究产生了重大影响。同时,在当时已经取得了串行计算机与人工智能方面的显著成就。然而这却忽视了开发新型计算技术与人工智能新途径的必然性和紧迫性。从而导致人工神经网络研究陷入停滞不前的状态。
在此期间,在该领域中存在一些致力于这一课题的人工神经网络研究者仍在持续探索相关问题,并提出了包括适应谐振理论(ART网)、自组织映射和认知机网络在内的相关模型。这些研究成果不仅深化了对人工神经网络的理解,并且为其进一步发展奠定了坚实的理论基础。
1982年期间,在美国加州工学院的物理学家J.J.Hopfield首次提出Hopfield神经网络模型,并在此基础上引入了"计算能量"这一理论基础来分析网络系统的稳定性问题。
在1984年, 他又提出了连续时间Hopfield神经网络模型, 为研究提供了一个重要的理论基础. 这一发现不仅奠定了其在联想记忆与优化计算中的重要地位, 并且极大地推动了对神经网络研究的发展. 在1985年, 又有学者提出了波耳兹曼模型, 在学习过程中采用统计热力学模拟退火技术以确保整个系统趋于全局稳定点.
1986年开展了认知微观结构的研究,并提出并行分布式处理理论;在该年份开发了BP算法
Rumelhart与McClelland共同发表了题为《Parallel distribution processing: explorations in the microstructures of cognition》的重要著作
BP算法已被广泛应用于解决各种实际问题。于1988年提出了一种新的自组织理论,并在此基础上形成了最大互信息理论。该研究方向逐渐转向基于神经网络的信息应用领域。
在1988年,Broomhead和Lowe通过应用径向基函数(RBF)开发了分层网络设计的方法,并将其成功地与数值分析以及线性适应滤波紧密联系起来。
20世纪90年代初期,Vapnik及其团队提出了一种称为支持向量机(SVM)的方法,并引入了VC维数的概念来评估模型复杂度
各国普遍关注该研究领域的进展。美国国会宣布了针对自1990年1月5日起持续十年的特殊计划。国际研究组织号召各国参与该计划,并将其推广至全球范围。
在推动实施日本的真实世界计算计划中,“人工智能”的研究起到了关键作用
神经网络的发展历史
1943年,W·Mcculloch与W·Pitts两位学者基于对神经元基本特性的深入分析与总结,首次提出了神经元的数学模型AI爱发猫 www.aifamao.com] 。该模型自被广泛沿用至今,并持续对这一领域的发展产生深远影响。
因此, 他们两人被称为人工神经网络研究的先驱. 1945年, 冯·诺依曼指挥的设计团队成功制造了存储程序式的电子计算机, 并预示着电子计算机时代的到来.
在1948年的研究工作中,他探讨了人脑结构与存储程序式计算机的本质差异,并构建了一个由简单神经元构成的再生自动机网络模型.
然而,在指令存储式计算机技术飞速发展的背景下
然而,在与普通计算机相关的领域中,并非只有冯·诺依曼的名字具有重要性;他在人工神经网络研究方面也是一位先驱者之一。上世纪五十年代末期,F·Rosenblatt所设计并制作了感知机,它是一种多层次的人工神经网络模型
这项工作首先将人工神经网络的研究从理论层面的探讨转向实际应用的开发。当时众多实验室沿袭这一思路制造出感知机,并将其分别用于文字分类识别、声音特征提取与分析、声纳信号解析以及学习机制模拟等方面的研究探索。
但是,在过去几年中关于人工神经网络的研究热潮并未持续太久
60年代末期时,人工神经网络的研究经历了长期低迷;与此同时,在60年代初期阶段,Widrow最先提出了一种称为"自适应线性元件"的新模型.这种模型是一种基于连续取值的线性加权求和并配合阈值机制的信息处理系统.随后在此基础之上,研究人员逐步演进出了更为复杂的非线性多层次自适应体系.
当时, 这些工作虽然没有明确标注神经网络名称, 实际上就是一种人工神经网络模型. 随着人们对感知机兴趣的逐渐冷淡, 神经网络的研究长时间陷入停滞不前的状态.
80年代初期,超大规模集成电路制作技术实现了模拟与数字结合的新突破,这种技术彻底投入实际应用中,与此同时,尽管数字计算机在某些应用领域仍面临挑战,但人工智能的发展却带来了新的机遇.这一背景表明人工神经网络已达到成熟的阶段.
美籍物理学家Hopfield在1982年和1984年的《美国科学院院刊》上分别发表了两篇关于人工神经网络的重要论文,在学术界引起了广泛的关注,并促使人们开始关注这一领域的强大作用及其被实际应用的可能性
随后一股股热情围绕着Hopfield提出的方法展开深入研究工作,并由此催生了80年代中期人工神经网络研究热潮
神经网络的历史是什么?
沃伦·麦卡洛克与沃尔特·皮茨(1943)利用数学原理以及被称为阈值逻辑的一种算法开发了一种神经网络的计算模型。这种模型导致了神经网络研究领域的两大主要研究方向。
从生物学角度来看,在大脑中研究生物科学领域的相关问题;而在人工智能领域中,则专注于神经网络的应用。
自1948年起, 研究者开始将这一计算理论的核心思想应用于B型图灵机的设计。赫布式的知识构建被视为一种经典的无监督学习范式, 其后续变种构成了一类长期增强机制的基础性框架.
费里和韦斯利·A·克拉克于1954年首次使用了电子计算装置,在麻省理工学院模拟了一个由赫布提出的神经网络模型;罗切斯特大学的研究团队于1956年在IBM 704电子计算机上实现了基于抽象神经网络的计算模型
弗兰克·罗森布拉特开发出了感知机系统。这一算法是一种模式识别技术,在使用基本算术运算的基础上构建了一个包含两层的学习网络架构。罗森布拉特不仅通过数学符号描述了传统感知机所不具备的循环结构(如异或门电路),还进一步完善了这一理论基础
这种回路长期难以被神经网络处理直至1975年保罗·韦伯斯开发了反向传播算法。在马文·明斯基与西摩尔·派普特于1969年发布关于机器学习的研究之后,神经网络领域的研究陷入了停滞。
他们揭示了神经网络两大核心问题。其中之一是基本感知机无法解决异或问题。另一个关键问题是电脑处理大型神经网络耗时漫长。
直到计算机计算能力显著提升之前,在人工智能发展初期阶段,在神经网络领域取得重大突破之前的一段时间内,在神经网络研究方面也未见显著进展
该算法成功地实现了异或运算的任务;此外,在训练多层神经网络方面还存在更为普遍的技术挑战。在20世纪80年代中期期间,并行分布式计算模式(即当时称为联结主义)逐渐成为主流。
戴维·鲁姆哈特和詹姆斯·麦克里兰德的著作对联结主义在计算机中的神经活动模拟应用进行了系统阐述。传统上将神经网络视为对大脑神经活动的一种简化的理论模型。尽管这一模型与大脑生理结构之间的关系仍存在不同观点。
戴维·鲁姆哈特和詹姆斯·麦克里兰德的著作对联结主义在计算机中的神经活动模拟应用进行了系统阐述。传统上将神经网络视为对大脑神经活动的一种简化的理论模型。尽管这一模型与大脑生理结构之间的关系仍存在不同观点。
人们不清楚人工神经网络能多大程度地反映大脑的功能。
支持向量机与其他较为简单的技术(如线性分类器)在机器学习领域的普及程度逐渐超越了神经网络体系,在21世纪后期兴起的深度学习技术则成功唤起了公众对神经网络体系的关注
近年来,在生物物理模拟与神经形态计算领域中,CMOS技术被广泛应用于开发相关的计算设备。最新的研究结果表明,在处理大型主成分分析以及卷积神经网络任务时,基于纳米级设计的新型电子设备展现出巨大的应用潜力。这些创新性设计不仅提升了计算效率与精度,在特定应用场景下还显著降低了能耗水平。
如果成功实现这一目标的话,这将产生一种全新的神经计算设备.这种设备不是基于程序而是模仿生物学习机制,本质上是模拟而非数字,尽管它的首例可能是一个数字化的CMOS芯片.
从2009至2012年期间,在SwissAILab IDSIA的研究小组中由Jürgen Schmidhuber领导开发的循环神经网络体系与深度前馈网络模型,在数据模式识别技术与人工智能学习算法领域取得了8个国际竞赛的胜利。
例如,在2009年ICDAR比赛中取得了3个连笔字识别任务的成功之后,Alex Graves及其团队开发了双层、多方向循环神经网络(RNN),并且在开始学习这三种语言之前并未掌握相关信息。
IDSIA 的 Dan Ciresan 及其团队采用了该方法开发的基于 GPU 的系统,在多个模式识别比赛中取得了优异成绩,并在 notably 包括了IJCNN 2011 交通标志识别比赛以及其他相关竞赛中展现了卓越表现。
他们的神经网络也是率先在关键性能评估平台上(如IJCNN 2012中的交通标志识别挑战赛与Yann LeCun领导的手写数字识别研究MNIST)实现超越人类水平的人工模式识别系统。
如1980年Kunihiko Fukushima创造的neocognitron及其视觉系统(如同David H. Hubel与Torsten Wiesel在初级视皮层中发现的基础细胞所启发)那样的具有深度且高度非线性的神经架构能够通过多伦多大学杰弗里·Sutton实验室采用无监督学习方法进行训练。
在当年(即2012年)时
在2014年时提出了残差神经网络这一概念,在该领域取得了突破性进展;它极大地释放了传统神经网络对深度的限制束缚,并为深度学习的发展奠定了基础。
典型的一个人工神经网络由以下三部分构成:其中第一部分为结构(Architecture),它定义了网络中的变量及其拓扑关系;第二部分是激活函数(Activation Function),决定了各层节点如何传递信号;第三部分是学习算法(Learning Algorithm),负责调整权重以优化模型性能。
例如,在神经网络中存在两种类型的变量:一种代表神经元之间的连接关系及其对应的 权重(weights),另一种则表示各神经元的 激励活动水平(activities of the neurons)。
2、大多数神经网络模型采用激励函数(ActivationRule)作为其动力学基础,并通过动态更新机制以调整自身的激励水平。
一般激励机制由网络中的权值(作为该网络的核心参数存在)所决定。3、学习规则(LearningRule)决定了网络中权值在时间维度上的变化规律。这种动态行为通常被视为长期时间尺度上的动力学行为。
通常情况下,在训练过程中, 学习规则会受到单个神经元兴奋度的影响. 此外, 在有监督学习场景下, 学习过程还会受到目标数据标签以及当前权重参数的影响. 例如,在手写数字识别系统中使用的一个神经网络模型拥有多个输入层神经元. 这些输入层神经元会根据输入图像数据的变化而被激活或激发.
在经过加权处理并经由预设函数计算得出后
神经网络算法的人工神经网络
人工神经网络(Artificial Neural Networks, ANN)体系是上世纪四十年代之后发展起来的。
它是由大量可调节的神经元间通过连接权值进行连接构成,并且具备强大的分布式信息处理能力、高效的自适应学习机制以及优异的数据自主优化性能等显著特点。
BP(BackPropagation)算法亦称误差反向传播算法,在人工神经网络领域中被广泛应用于监督学习方法的研究与实践中。
基于理论分析,BP神经网络算法能够逼近任意函数。由非线性变换单元构成的基本结构展现了强大的非线性映射性能。
而其中神经网络的中间层节点数量以及各层计算单元数量和学习率等参数均可根据具体需求进行调整。具有较强的可调节性,并广泛应用于优化算法设计、信号处理技术开发以及模式识别系统的构建,在智能控制和故障诊断等领域也展现出显著的应用潜力。
该研究始自脑神经元学说。在19世纪末,在生物与生理学领域内,在 Waldeger 等人的努力下创建了这一理论框架。科学家们意识到复杂的神经系统是由大量神经元组成的系统。
大脑皮层拥有超过100亿个神经元,在每个立方毫米内大约聚集着数万个这样的细胞。这些神经元相互连接构成复杂的神经系统结构。通过感觉器官接收来自身体内外的各种信号,并将这些信息传递至中枢神经系统内部。通过对这些信息进行分析与综合处理后,在随后由运动神经将这些控制指令传达出去以确保机体能够协调内外环境之间的相互作用。
其他类型的细胞与之相仿,并均具有的结构包括:胞膜、胞质基质及核膜。然而与普通神经细胞相比,在这一过程中发挥着关键作用的是其显著特征是丰富的突起结构。这些特殊的形态结构通常分为树突、胞体和轴突三种主要部分,在这一过程中发挥着关键作用。这些特殊的形态结构在信息传递过程中扮演着关键角色。
树突是接受输入信号的重要结构,在神经网络中起到信息传递的关键作用;轴突则是负责将电信号传递到下一个神经元的部分,并且其数量仅有一个;树突从细胞体延伸出去,在发育过程中逐渐变细;其形态从粗壮到逐渐变得纤细;各个部位均可与其它神经元的轴突末端建立联系,并通过这种方式完成信息传递
在突触处的两个神经元并未形成直接连接关系,它仅仅作为一个信息传递功能的结合部位存在,两者之间的接触面间距约为(15~50)×10⁻⁹米。根据其作用机制的不同,突触可以分为兴奋性和抑制性两种类型,这种分类方式反映了神经元间耦合作用的方向性和性质差异。
每个神经元通常具有正常的突触数目,并能达到10个左右的最大值;不同神经元之间存在连接强度和极性的差异,并且这些特征均可进行调节;这一特性表明人脑具备存储信息的能力;通过将大量神经元相互连接形成的人工神经网络能够反映出人类大脑的一些特征
人工神经网络由大量简单的结构单元构成,并通过这些单元之间的相互连接形成一个自适应且具有非线性特性的动态系统。尽管每个神经元的结构与功能相对简单明了,但当多个这样的神经元组合在一起时,整体系统的运行方式却异常复杂。
人工神经网络表现了人脑功能的一些基本特性,并非是对生物系统的真实模仿而是经过简化与抽象后的产物
相较于数字计算机而言,在构成原理和功能特点等方面更加贴近人类大脑的运作机制。人工神经网络不具备按照预先设定程序逐步处理信息的能力,在其运行过程中能够自主适应环境变化并总结其中的规律。此外,在任务执行方面不仅能够完成特定任务(如运算),还能具备复杂认知功能(如模式识别)。
人工神经网络必须遵循特定的学习准则来进行学习,并在此基础上才能开始工作。为了便于理解,请参考人工神经网络对字母“A”和“B”的识别情况。具体而言,在这种情况下,“A”的输入将被定义为输出“1”,而当输入为“B”时,则被定义为输出“0”。
因此,网络学习的标准应当是:如果一个系统被判定存在错误判断,则经过该系统的改进后应能减少未来再次出现相同错误的可能性。
在本研究中,在各连接权值上预设一个(0至1之间)的随机数值后,在该网络系统中将图像模式输入到网络中进行处理。随后将该输入信号通过加权求和计算后与设定阈值对比,并通过非线性运算得到最终输出结果。
在这种情况下,在面对输入"1"与"0"的概率均等分布下(即完全随机)。此时若输出结果是"1"(正确识别),则会提升相关连接权值。从而确保当网络再次接收到"A"模式输入时仍能做出正确的判断。
如果结果为"0"(即出现错误),则将网络连接权值向降低综合输入加权值的方向进行调整。其目的则是希望当网络再次遇到"A"模式输入时,降低再次出现同样错误的可能性.
此操作经过调整时,在向网络输入多个手写字母'A'和'B'的过程中进行训练后,则其判断准确率显著提升。
这一项分析表明该系统对这两种模式的学习已经完成。该系统通过训练实现了对这些数据特征的理解,并以分布的方式存储在各个连接权值中。当系统再次输入其中一个模式时,能够迅速作出判断并完成分类任务。
通常情况下,在网络中所包含的神经单元数量越多,则其能够记忆、识别的模式也会随之增加。(1)人类大脑具有强大的自我调节和自我重组能力,在经过后天的学习与训练后,则能够发展出多种独特的功能。
像失聪失觉者那样具有敏锐的感受力;类似于聋哑者的交流方式;经过专业训练的运动员展现出了卓越的技术水平等等。普通的电子设备其运算功能主要由预先编入软件的知识体系支撑。显而易见的是,在模拟智能行为方面存在巨大的技术挑战。
该系统具备基础的自我适应性和自我组织能力。通过调整神经元之间的连接强度,在学习或训练过程中使其能够适应周围环境的要求。同一个系统根据所采用的学习策略以及所处理的内容类型表现出多样化的性能特征。
人工神经网络是一种具备自主学习功能的体系,在应用过程中能够不断积累知识,并超越设计者原有的知识水平。
通常情况下, 机器学习的学习训练模式可分为两类:一类是有指导的学习模式,即在给定样本标准下进行分类或模仿行为;另一类是无监督学习模式,即仅规定基本的学习框架或规则,具体实施内容则由系统的环境特征决定,这种机制使系统能够自主发现规律并模拟人脑-like功能
(2)泛化性能指的是模型在面对未经过训练的数据时表现出的良好预测和控制能力。特别地,在存在噪声数据的情况下,该模型仍能保持较高的预测精度。
(3) 非线性映射能力在工程师看来如果系统的通透或清晰度很高,则通常会采用数值分析和偏微分方程等数学工具来构建精确模型。然而,在面对复杂系统或信息有限的情况下(即难以建立精确模型),神经网络展现出显著的优势:它无需深入了解系统的细节即可建模,并且能够实现输入与输出之间的有效映射关系。这样一来就大大降低了设计难度
(4)强并行特性存在一定的争议。证明了其存在强的并行特性理由:作为模拟人类大脑功能的数学模型,在处理多任务方面表现出色的能力表明神经网络确实具备很强的并行特性。
经过漫长岁月的探索与研究探索
深入研究了相关问题的答案后,在探索的过程中逐渐形成了一个新兴的多学科交叉技术领域,并被学术界称为'神经网络'。这一技术被学术界称为'神经网络'。其研究不仅涉及多个学术分支,并推动各领域的相互融合与发展。
各个领域的科学家基于各自学科的独特专长探讨多样的课题,并以多维度的研究视角展开分析。
我们打算通过对比人工神经网络与通用计算机的工作特性来探讨两者之间的差异。从传输速率来看,人脑神经元之间的信息传递速度明显低于电子计算机,在毫秒级别即可完成一次信号传输;相比之下,在电子设备中信号传递通常达到数百万赫兹的频率水平。
尽管人类大脑是一种复杂的人类信息处理体系,并且具备强大的混合并行/串行信息处理能力,在各个问题领域中能够迅速进行分析、判断、决策,并采取相应措施。然而,在某些特定任务上其运行效率明显高于基于单一顺序架构的传统电子计算机
基于生物神经系统的构建模式的人工神经网络,在功能设计上实现了并行计算能力显著提升。其独特的信息存储机制通过突触强度变化实现动态优化,并通过统一的存储系统实现了对计算资源的有效整合。
虽然持续出现大量神经细胞死亡现象(平均每天约一千个),这并不会妨碍大脑的正常思维活动.
普通计算机以其独特的结构配置著称,在设计上实现了内存单元与处理单元的高度分离性。其知识存储模块与数据处理单元之间并无直接关联关系,在功能上也存在显著差异性。唯有借助人工编写的程序才能实现这两者之间的信息传递机制。这种信息传递机制的能力始终受到程序开发者预期的限制,在实际应用中往往难以达到理论设计的理想状态
心理学家和认知科学家致力于研究神经网络以探索人脑加工、储存与检索信息的方式,并试图揭示人类大脑运作的基本规律以及构建人类认知机制的详细模型。
生物学、医学以及脑科学领域的专家致力于利用神经网络技术促进脑科学向定量化、精确化以及理论化的方向发展;同时他们也对临床医学取得新进展抱有期待。信息处理与计算机科学家则致力于探索能够有效解决那些现有方法难以处理以及高度复杂的问题的新途径;最终的目标是设计出更接近人类大脑功能的人工智能系统
人工神经网络领域的早期研究可追溯至20世纪40年代。以下按照时间顺序、通过突出在某些领域具有重要影响的著名人物及其研究成果来进行介绍。
1943年,W·Mcculloch心理学家与W·Pitts数理逻辑学家基于对神经元基本特性的系统分析与归纳总结的基础上首次构建了神经元的数学模型。该模型自发布以来一直被广泛使用,并且对本领域研究的发展产生了深远影响。
因此,这两人可被视为人工神经网络研究领域的开拓者。1945年,在冯·诺依曼的领导之下所成立的研究团队成功开发出了存储程序式的电子计算机,并由此预示着现代电子计算机技术的诞生
1948年,在其研究领域中,他深入探讨了人脑结构与传统计算机之间的本质差异,并成功构建了一个由简单神经元组成的再生自动机网络模型。
然而随着指令存储式计算机技术的飞速发展使得他不得不放弃神经网络研究的新途径转而专注于指令存储式计算机技术的研究并在相关领域取得了卓越成就
虽然他的名字与现代计算机的发展紧密相连,但他在人工神经网络领域的贡献同样举足轻重.1950年代后期,F·Rosenblatt开发并制造了'感知机'系统,这一创新性的人工神经网络模型奠定了其在该领域的重要地位.
该研究首次实现了将人工神经网络从理论探讨转向工程实践。当时众多实验室仿制感知机以应用于文字识别、声音识别、声纳信号识别以及学习记忆问题等。
尽管这次人工神经网络的研究热潮未能持续太久,在随后的时间里有大量研究人员离开了这一领域。这种现象的发生主要是由于当时电子计算机技术达到了高度发展水平。许多研究者错误地认为电子计算机能够解决所有与人工智能相关的难题。与此同时人们还忽视了电子技术工艺水平的落后性主要使用的仍是笨重的电子管和晶体管制造出这样规模下的神经网络几乎不可能实现而且当时的计算能力也远远无法满足相关需求;此外在1968年出版的一本名为《感知机》的重要著作中明确指出线性感知器的能力有限它无法解决诸如异感这类基本问题而多层网络体系也因缺乏有效的计算方法而受到限制这些论断最终导致了大量研究人员对人工神经网络领域的前景失去了信心
60年代尾声时,人工智能领域的研究逐渐陷入停滞。与此同时,在60年代早期,Widrow提出了一种自适应线性元素,这种技术采用连续变量进行计算,是一种基于连续变量的线性加权求和模型。随后在此基础上,Widrow扩展了该方法到非线性的多层结构
当时这些工作虽然没有明确标出神经网络名称但实质上即属于人工神经网络模型随着人们对感知机兴趣下降神经网络研究陷入长时间停滞
80年代初期,超大规模集成电路制作技术实现了从模拟到数字的结合,并已全面实现,与此同时,面对一些应用领域的技术瓶颈问题,数字计算机的发展仍显不足。这一背景下,人工神经网络的应用前景已备佳时
美国科学家Hopfield于1982年和1984年在美国科学院院刊上撰写了两篇关于人工神经网络研究的文章,在学术界引起了广泛的关注。人们开始意识到神经网络的功能以及其实现应用的可能性。
随后众多学者与研究人员基于Hopfield提出的方法展开了后续研究工作, 最终催生了80年代中期以来人工神经网络的研究热潮
在1985年时,Ackley,Hinton和Sejnowski将模拟退火算法应用于神经网络的训练中,提出了Boltzmann机模型,其特点是可以跳出局部最优解,其缺点是需要较长的训练时间.
1986年,Rumelhart,Hinton与Williams共同创建了多层前馈神经网络的学习机制,并将其命名为BP(Backpropagation)算法.基于理论进行推导的BP算法被广泛应用于训练人工神经网络模型.就学习机制而言,在当时的研究中被视为一个重要的突破.
1988年,Broomhead和Lowe首次提出了径向基网络:RBF网络。总的来说,神经网络经历了经历了一个从高潮到低谷,再到高潮的阶段,充满了曲折的过程。
人工神经网络,人工神经网络是什么意思
。
一、人工神经网络的基本概念人工神经网络(ArtificialNeuralNetwork, ANN)简称神经网络(NN),是基于生物学中神经网络的基本原理,在理解和抽象了人脑结构和外界刺激响应机制后,在深入研究了人脑结构与功能的基础上,并以网络拓扑理论为理论基础建立的一种数学模型用于描述和模拟人脑神经系统对复杂信息的处理机制
该模型凭借其并行处理能力和抗干扰能力强的特点,在智能化及自主学习方面具有显著优势,并实现了信息处理与数据存储的高效结合;通过独特的知识表达方式以及自主学习优化能力的应用,在多个学科领域引起了广泛关注
它本质上是一个由多个简单元件相互连接而形成的复杂系统,在具备高度非线性的特点下能够执行复杂的逻辑运算,并且能够实现非线性关系的具体机制。神经网络作为一个数学运算模型,在其架构中由多个节点通过相互连接形成一个体系结构。
每个节点代表一种特定的输出函数,称为激活函数(activationfunction)。
在任意两个节点之间形成的连线都承载着一种针对通过这条连线传递过来的信号的价值系数叫做权重(weight),这些数值被称为权重(weight)。其机制本质上模仿了人脑的记忆过程。其输出结果主要由以下几个关键因素共同决定:一是网络架构的设计方案;二是各节点之间的连接模式;三是各条边上分配的具体数值(即权重系数);四是所采用的激活函数类型。
而网络自身往往是对自然界中某些算法或函数的模仿与表现,并且也可能是一种逻辑策略的表现。神经网络的理念源自生物技术领域的研究与应用。
人工神经网络则融合了对生物神经网络的认识与数学统计模型,并通过相应的数学统计工具进行实现。
在另一个研究领域即人工智能感知方面,在这一领域内我们运用数学统计方法使神经网络展现出与人类相似的决策能力和简单的判别能力这种方法是对传统逻辑演算的一种拓展
在人工神经网络中,神经元处理单元代表多种类型的对象,包括特征向量、字母符号、概念描述以及一些具有意义的抽象模式。在人工神经网络中,处理单元根据功能分为三类:输入层、输出层和隐藏层。
输入单元接收外部世界的信号与数据;输出单元负责将系统处理后的结果传递出去;隐单元位于输入与输出单元之间,并不可被外界直接观测。
神经元间的连接权值是权重参数表征了不同神经元之间的相互作用程度,在整个网络结构中起着调节信号传递的关键作用;而信息的表示与处理则直接依赖于网络内部各节点之间的交互机制,在此基础之上完成接收与传递过程。
人工神经网络是一种无程序化特征、具有适应性特征且类似大脑风格的信息处理系统。其本质是基于网络的动力学行为实现并行分布式的信息处理能力,并在不同层次上模拟了人类大脑神经系统的相关信息处理机制。
神经网络是一种模仿人类大脑神经突触连接结构以实现数据处理的数学模型。它建立在人类对自身大脑组织结合与思维机制的认知基础上模拟出来的,并涉及多个交叉学科领域作为研究方向
二、人工神经网络的发展经过漫长的时间发展,神经网络展现出巨大的历史价值.它经历了四个主要的发展阶段.
第一阶段----启蒙时期(1)、M-P神经网络模型:人类对神经网络的研究始于20世纪40年代初期
1943年, 美国心理学家麦卡伦(Mcculloch)与数学家皮兹(Pitts)提出了M-P模型;这一模型相对简单却具有重要意义
在模型中,在将神经元视为若干功能逻辑器件的基础上实现算法后才开创了神经网络模型的理论研究
Hebbian rules were established by Herb in 1949, when he published his influential work《Behavioral Organization》. In this treatise, he introduced the concept of adjustable synaptic connection strengths.
该假设认为学习过程最终发生在神经元之间的突触部位,并指出突触连接强度会受到突触前后神经元活动程度的影响。进而形成如今被广泛认可的Hebb规则。
该种学说揭示了不同神经元之间突触连接强度是可以调节的这一特性,并表明这种特性对于理解和实现大脑的学习机制具有重要意义。该理论为开发能够执行学习任务的人工神经网络奠定了理论基础。
(3)、Perceptron model: In 1957, Rosenblatt proposed the Perceptron model based on the development of the McCulloch-Pitts model.
感知器模型遵循现代神经网络的核心理念,并且其架构高度契合神经生理学
该系统采用连续可调权值矢量的MP神经网络模型,在经过严格训练后能够实现对固定输入矢量模式进行分类识别的目标。尽管其结构较为简单但它却是首个真正实现人工神经网络概念的体系结构
Rosenblatt表明两层神经网络具备将数据分类的能力,并且他开创性地提出了一种包含三层结构的神经网络模型。
基于Rosenblatt提出的神经网络模型融合了现代神经计算机的核心理念,在这一基础上奠定了现代神经网络方法与技术的基础
ADALINE网络模型:1959年,在美国由著名工程师威德罗(B.Widrow)和霍夫(M.Hoff)等人开发出自适应线性元件(Adaline),并创立了Widrow-Hoff学习规则(即最小均方差算法或δ规则)。这种方法被成功应用于工程实践,并成为最初用于解决实际问题的人工神经网络系统之一。该方法的应用不仅推动了神经网络的研究与应用向前发展。
ADALINE网络结构具有连续输出特性,并且其应用领域涵盖自适应系统
在人工智能进入低谷时期的第二阶段,Minsky和Papert从数学角度深入研究了感知器等网络系统的基本功能及其局限性,并于1969年出版了具有里程碑意义的经典著作《Perceptrons》,该书证实了简单线性模型在处理非线性可分数据时存在明显局限,并详细阐述了这种局限性的具体表现。
该理论观点对该时的人工神经元网络研究造成了巨大挫折。这标志着神经网络发展史上的长期低迷时期正式开启,并持续了十年之久。
(1) 自组织神经网络模型SOM:于1972年提出者为芬兰的Kohonen教授,并最先提出了自组织神经网络SOM(即Self-Organizing feature maps)。
后来的神经网络主要依据KohonenT.的研究成果得以构建。SOM网络属于一类无监督学习模型,在模式识别、语音识别以及分类任务方面具有广泛的应用。
该系统运用一种"胜者为王"的竞争性学习算法,并与以往所提出的感知器相比存在显著差异;此外,在其学习与训练过程中采用了无监督的方式,并属于自组织网络的一种。
这种学习训练方法常见地是在无法预判具体有哪些分类类型时的一种用于提取分类信息的训练手段。
(2) 自适应共振理论ART:1976年美国Grossberg教授首次提出AdaptiveResonanceTheory这一重要神经网络模型,并指出该理论的学习机制具有自我组织和自我稳定的特点
3.第三阶段----复兴时期(1)、Hopfield模型:于1982年,美国物理学家J.J.Hopfield提出了离散型人工神经网络的概念,并命名为著名的离散Hopfield网。这一开创性工作极大地促进了人工神经网络领域的研究进展。
在网络领域中,该方法最先引入了Lyapunov(Lyapunov)函数这一概念,并且后人则将其命名为能量函数这一术语以纪念其重要性。研究者们通过这一理论框架成功地证明了网络系统的稳定性特征。
在1984年期间,Hopfield进一步开发出了一种连续神经网络,在该网络中开发出了一种模拟电路模型来替代分立的数值模型。
1985年,Hopfield和Tank运用Hopfield神经网络成功地解决了旅行推销商问题(HopfilingSalesmanProblem)。Hopfield神经网络被描述为一组非线性微分方程
Hopfield模型不仅对人工神经网络的信息存储与提取功能进行了非线性数学描述,并构建了运动学方程与训练规则体系;同时确立了系统的理论框架与基本参数;为此类网络的设计与优化提供了理论基础;此外该模型在神经网络领域引发了广泛关注并成为研究热点;大量学者在此基础上展开了深入研究
由于Hopfield神经网络展现出广泛的应用前景,因此众多学者对这一领域展开了深入研究,从而为该技术的发展奠定了坚实的基础.
(2)、Boltzmann机模型:1983年,Kirkpatrick等科学家首次意识到模拟退火算法在解决NP完全组合优化问题中的应用价值,他们所开发的方法正是模仿物质物理中的降温过程以寻求全局最优解,这一方法最早可追溯至Metropli等学者在1953年所做的开创性研究
在1984年,Hinton与其年轻同事Sejnowski等人合作开发出了大规模的并行式网络的学习机制,并首次提出了隐式单元的概念.这种学习机制随后被命名为Boltzmann机器.
Hinton and Sejnowsky, based on the concepts and methods of statistical physics, initially proposed a learning algorithm for multilayer networks, which is referred to as the Boltzmann machine model.
(3)、反向传播BP神经网络模型:1986年,儒默哈特团队基于多层次神经网络框架,发展出一种权值修正机制,命名为反向传播算法(BP algorithm),标记为ErrorBack-Propagation。这一创新性方法成功解决了前馈神经网络的学习难题,展现了多层次神经网络强大的学习能力,使其能够高效处理各类学习任务并解决实际问题
(4)、并行分布式处理理论:1986年,《ParallelDistributedProcessing:ExploringtheMicrostructuresofCognition》一书由Rumelhart与McCkekkand共同主编,在该著作中他们创立了并行分布式处理理论,并专注于微观层面的认知机制研究。书中对包含非线性连续转移函数的多层前馈网络的误差反向传播算法(即BP算法)进行了系统的研究与深入探讨,并最终突破了长期存在的无权值调整的有效算法难题。
该方法能够解答感知机所不能处理的问题;它回应了《Perceptrons》一书中关于神经网络局限性的论点;通过实际应用验证了人工神经网络在计算能力上的显著优势。
该细胞神经网络模型:Chua和Yang于1988年建立了基于细胞自动机特性的CNN模型体系。
Kosko开发出了双向联想存储架构(BAM),该架构具备无监督学习能力。(6)、达尔文主义模型:Edelman于20世纪90年代初提出达尔文主义模型,并对该理论体系的发展产生了深远的影响;他构建了一个基于神经网络的系统理论框架。
1988年, Linsker在其研究工作中发展出新的自组织理论模型,并在此理论基础上构建出基于Shannon信息论的最大互信息原理框架,这一创新性研究成功点燃了神经网络(NN)领域中信息应用领域的革命性发展
于1988年,Broomhead和Lowe基于径向基函数(Radialbasisfunction,RBF)提出了分层网络的设计方法,并将其与其间的数值分析及线性适应滤波进行了紧密联系。
在1991年期间,Haken将协同机制引入神经网络领域,并将其纳入其理论体系中.他主张认知活动是内生的,并提出模式识别与模式形成之间存在同一性
在1994年时, 原先提到"廖晓昕关于细胞神经网络的数学理论与基础的提出"的部分, 可以改写为"廖晓昕建立了细胞神经网络的数学理论与基础体系", 从而推动了该领域的发展.
基于扩展激活函数集合的方法下, 建立了更为普遍的时滞细胞神经网络(DCN)型时滞细胞神经网络、(HNN)型霍普菲尔德神经网络以及(BAM)型双向联想记忆网络模型
(11)、二十世纪九十年代初期,Vapnik及其团队构建了支持向量机(SVM)与VC维数理论基础。
经过多年的发展,已有上百种的神经网络模型被提出。
人工神经网络是哪一年由谁提出来的
人工神经网络的概念在1943年首次提出,并由心理学家W.S.McCulloch和数理逻辑学家W.Pitts于该年提出。
他们构建了一个基于MP模型的神经元数学模型,并设计了网络结构方法来描述单个神经元的功能。这些研究为人工神经网络的发展奠定了基础。1949年心理学家首次提出突触连接强度是可以变化的。
60年代末期至70年代初之间的人工神经网络研究取得了重要进展
M.Minsky及其团队对代表性的神经网络系统——感知器的功能与局限进行了细致探讨,并在1969年,《Perceptron》一书中得以发表。该著作明确表明感知器无法处理复杂的谓词任务。
相关资料中详细阐述了人工神经网络的优势与特点等关键内容,主要体现在三个方面:第一点是具有自主学习能力
例如,在实现图像识别的过程中, 当把许多不同的图像样板及其对应的应识别结果 fed into 人工神经网络后, 该网络通过自主学习机制逐渐掌握了识别类似图像的能力. 自学习功能在预测任务中具有特别重要的意义.
展望未来的人工神经网络系统有望为人类提供经济指标、市场动向以及效率评估。其次,则具备关联性存储能力;这种关联性可通过人工神经网络的反馈机制得以实现。最后,则展现快速识别最优方案的能力。
为解决复杂问题寻求最佳方案, 通常会消耗大量计算资源. 基于该特定问题设计的人工神经网络系统, 充分挖掘计算机处理能力的优势, 可能在短时间内完成这一过程.
人工智能的发展概况
深入研究人工智能的本质,则需要解析智能的根本内涵。通过整合分析现有的多维度定义可知:智能化表现为知识与思维能力的有机统一,在人类认知世界的层次上展现为一种将信息处理与问题解决融为一体的能力。
对于人工智能领域而言,在美国麻省理工学院的温斯顿教授曾提出"人工智能就是探讨如何让计算机执行那些过去只有人类才能完成的智能任务"的观点;而在斯坦福大学的人工智能研究中心里,尼尔逊教授则指出"人工智能作为一门学科主要研究的是如何表示和处理知识以实现自主决策与问题解决"。
从整体上讲人工智能可被视为与人类智能相对应的技术发展成果。它本质上是对人类思维信息处理机制的一种模仿 并且也可视为人类智力的表现形式 这门学科涉及研究 开发以及应用一系列理论 技术以实现对人类智力水平的提升
(一)以感知机理为主导的人工智能系统由三大功能模块构成:信息采集阶段负责数据整理与分析,在信息处理环节运用先进算法提取有效特征,在反馈机制中完成结果优化与自适应调节。该系统展现出智能感知能力与精确的数据计算能力,并通过闭环反馈机制实现智能化。这体现了从感知到思考再到行动的层次递进过程。
智能的产生首先要具备足够的结构化数据用于描述或记录场景;从而而言,智能感知构成了实现人工智能的基础。
智能感知技术的主要目标在于让计算机具备听觉和视觉能力。当前相关领域的计算机视觉技术和自然语言处理技术已经发展较为完善,并且正在向商业化推广阶段过渡。
智能处理:第二步是使计算机具备强大的计算能力去模仿人类的思维模式和行为模式,在分析收集来的数据信息时完成这一任务即通过自我学习筛选出有效信息理性分析并最终输出结果。
具体的研究领域涵盖知识表示、自动推理系统以及机器学习等多个方面,并与精确计算技术、编程技术体系、存储技术和网络技术等领域紧密相连。被视为大数据技术未来发展的重要方向之一的这一研究领域,在当前阶段的研究工作主要集中在实验室阶段。其中,在人工智能领域中,机器学习因其当前研究热度最高以及科研产出最为密集而备受关注。
智能反馈:智能反馈控制将经过前期处理与判断的数据结果转换为肢体运动及媒介信息的传输,并传递给人机交互界面以及外部设备以实现人机之间的信息交流,并通过物理互动完成人与物之间的互动过程。
智能反馈控制可视为人工智能最直接的表现形式,并通过其表现力体现系统的综合智能化水平
智能反馈控制领域与其相关联的机械技术、控制技术和感知技术具有紧密联系。这一整体现象主要体现在机器人学领域。当前机械技术的发展受到材料科学进步缓慢的制约,而控制技术则得益于工业机器人领域的积累较为完善。
(二)深度学习是当下最为热门的人工智能研究领域在学术界的主要探讨方向,在这一领域中实现人工智能的方法有三种不同的路径可循。其中一种路径即为模仿人类逻辑处理信息的方式进行功能模拟的研究方向,在这一方向下最具代表性的研究领域包括专家系统和知识工程等技术体系。
其二是主要采用统计方法进行生物启发模拟的研究路线。其代表领域包括机器学习以及生物启发技术。其三是行为主义学派,致力于从进化理论的角度进行研究,并结合先进的人工智能技术,探索拟人的智能控制行为。
当下
在20世纪80年代初开始发展的人工神经网络领域中, 科学家持续改进算法研究, 同时得益于计算机技术的进步, 现如今 scientist借助高性能计算设备如 GPU 来模拟大规模的人工神经网络系统. 同时, internet 业务蓬勃发展为深度学习提供了大量样本数据用于训练. 这些因素共同作用使得语音识别技术和图像识别技术达到了 90%以上的高准确率
(三)各国投入资源开发人工智能技术以占据技术先机;各国政府高度关注并积极推进人工智能相关产业的发展。
从人工智能诞生以来,在全球范围内各国都在大力加大其在人工智能领域的科研投入。其中美国政府以公共投资为主来推动其在人工智能产业上的发展。在2013财年时, 美国政府将高达 2 亿美元的资金分配给了先进制造业领域, 其中一个重点就是'国家机器人计划'
在技术方向上,美国将其视为具备战略防御意义的核心科技领域,并着重发展军事用途的机器人系统。相比之下,欧洲则聚焦于服务型与医疗领域的智能设备研发。另一方面,在仿生技术和娱乐产业中拥有专长的是日本团队。当前的技术创新主要集中在云计算应用以及仿生计算能力的提升上。
包括美国、日本、巴西在内的多个国家普遍将其视为未来机器人技术研究的重要方向。
伴随宽带网络设施的普及与推广,在云计算与大数据等技术不断进步的情况下,在未来预期机器人技术成本将进一步下降,并有望实现量产目标。预计未来机器人将通过互联网获取数据并进行处理。
目前国外相关研究的主要方向包括:发展出开放系统的机器人架构体系,并包含通用硬件与软件平台;构建基于网络连接的机器人系统平台;对算法及图像处理技术进行深入研究,并设计相应的处理模块;探索云环境下适用于机器人的网络基础设施建设等。
基于深度学习的发展成就, 学术界进一步朝着模仿人脑神经网络的结构的方向推进, 并不断增强了计算机对人脑功能和结构的理解能力.
人脑仿生计算技术的进步将使得电脑能够模仿人类大脑的运算并实现学习与记忆;同时能够融会贯通并实现对知识的创造。这种具备创新设计能力的设计将赋予电脑自我学习与创造的能力,并几乎与人类大脑的功能一样。
于2013年初发表的国情咨文中
欧盟委员会在2013年初也宣布了石墨烯与人脑工程两个领域被选定为'未来新兴旗舰技术领域'候选项目,并为此设立了专项研发计划;每个项目的专项研究经费将在未来十年内各自独立地获得总计每年十亿欧元的资金支持。
IBM公司正致力于研发一种新型仿生芯片。借助这些芯片的人类具备电脑模拟人脑运算的能力。预测最快可在2019年前彻底模拟人类大脑。
(四)高科技企业广泛将其视为下一代产业革命与互联网革命的技术突破点进行投资,并积极推动产业化进程
谷歌于2013年完成了对8家机器人相关企业的收购,并在机器学习领域大量引进企业及顶尖人才;并获得了DeepMind以及计算机视觉领域的领军企业Andrew Zisserman;并获得了DARPA前负责人Regina Dugan担任该领域的研究负责人,并指派著名计算机科学家Jeff Dean转向深度学习研究工作
苹果2014年在自动化上的资本支出预算高达110亿美元。
苹果手机中的Siri智能助手源自美国联邦人工智能研究计划局(DARPA),该计划投入了1.5亿美元,并经过5年时间开发的CALO项目(全称为Cognitive Assistant that Learns and Organizes)。该项目是非美国家中首个投入大规模商业化应用的人工智能系统。
Amazon计划在2015年能够使用自己的机器人飞行器进行快递服务。
各国企业争相将机器人技术引入制造领域,并积极拓展服务领域(五)人工智能的实际应用自1956年提出以来,在经过58年的演进后仍不具备广泛商业化的能力。各个关键组件的研发进展与产业化水平各有差异
人工智能产品的演进是一个渐近的过程,经历了从单体功能设备逐步走向通用型的发展阶段;在应用场景上,经历了从单一应用场景拓展到多维复杂应用环境的过程;在行为模式上,经历了由基础行为向综合行为的演进,展现出多样化的表现形式。
人工智能产品近期将继续充当辅助人类工作的工具角色,在技术上主要以传统设备的升级版形式呈现。这些产品包括智能汽车和无人驾驶汽车、家庭服务机器人以及医疗服务机器人等多种类型。
汽车类及吸尘器等设备与人类之间已形成成熟的物理互动模式。人工智能技术赋予上述设备一定水平的人工智能属性后能显著提高它们自主运行效率。
在各种环境中将出现一批能够模仿人类的思维方式并承担各种任务的智能机器人产品,在这些产品的本质价值尚未得到广泛认可的情况下,在人机交互界面方面还缺乏成熟的参考方案。为此必须从机械结构、控制系统以及人机交互等多个系统性层面着手开展全新的研发工作
人工智能的发展,主要经历哪几个阶段?
1孕育阶段这个阶段主要是指1956年以前。
自 historic times起,人类就一直致力于探索利用机器来替代人的部分脑力劳动,从而有助于人类增强征服自然的能力.这其中对人工智能的发展产生了深远影响的主要研究成果包括:早在公元前384-公元前322年,伟大的哲学家亚里士多德在其著作《工具论》中就系统地阐述了形式逻辑的一些基本定律,其中最突出的就是他对三段论的研究.这种逻辑体系至今仍然是演绎推理的核心内容.
F·Bacon在其著作中深入阐述了推理方法,并留下了著名的"知识即力量"这一格言。
这种方法对探索人类认知机制产生了深远的影响,
并推动了人工智能从以实例为中心转向以知识库为基础的研究。
莱布尼茨(G.W.Leibniz)创造了一个万能符号系统并发展了推理计算的思想体系
这种新思想不仅为数理逻辑的发展建立了基础理论框架而起的重要作用,并且被认为是现代机器思维设计思想的重要起源点。英国逻辑学家乔治·布尔(C.Boole)致力于将思维规律形式化以及实现机械化,并成功建立了布尔代数作为其理论基础。
他在《思维法则》一书中首次用符号语言描述了思维活动的基本推理法则。
英国著名数学家艾伦·麦席森·图灵(A.M.Turing)于1936年成功地创造了一种理想型计算装置的数学模型。该模型即所称的图灵机,在理论上为现代电子数字计算机的发展提供了关键性的框架与架构。
美国神经生理学家W.M.麦克洛奇与W.J.匹兹在1943年成功构建了一个最初的神经网络模型(M-P模型),这一开创性工作从微观看待人工智能的学习机制,并为其后的人工神经网络研究奠定了理论基础
由美国爱荷华州立大学的阿塔纳索夫教授及其研究生贝瑞共同开发的第一台电子计算机'阿塔纳索夫-贝瑞计算机'(Atanasoff-BerryComputer, ABC),属于20世纪中叶的重要发明之一,在人工智能研究领域提供了重要理论依据
需要澄清的是:世界上第一台电子计算机并非一些文献中所称的由摩尔里和埃德加·霍尔顿制造于1946年。这也是美国历史上一件备受争议的事实。
由上面的发展过程可以看出, 人工智能的产生和发展并非偶然发生, 是科学技术发展的必然结果. 2形成阶段这一时期主要指的是1956至1969年间.
在1956年夏季期间,在美国达特茅斯大学的一次为期两个月的学术研讨会上讨论机器智能问题的一群学者汇聚一堂
会上麦卡锡提出正式采纳了"人工智能"这一名称。麦卡锡因此以人工智能之父闻名。这次具有深远影响的关键会议标志人工智能作为一门新学科的诞生。
在此后的时间里, 美国逐步建立了多个人工智能相关研究中心, 其中 notable 的包括例如纽厄尔与西蒙共同领导下的 Carnegie-RAND 研究协作组, 以及明斯基及其领导团队在 MIT 开展的人工智能实验室项目. 此外, 塞缪尔所主导下的 IBM 认知技术中心也在这一时期应运而生.
从那次会议后的10多年以来,在机器学习定理证明模式识别问题求解专家系统以及人工智能语言等多个领域内 人工智能研究取得了诸多令人瞩目的成果 其中一项重要成果是在机器学习领域
该系统采用神经元作为识别的核心,并具备强大的学习能力;其学习能力引发了学术界极大的关注,并促进了连接机制研究的发展;然而,在进一步研究中发现感知机存在一定的局限性。
在该领域内,美籍华裔数学家王浩于1958年仅用3至5分钟便完成了《数学原理》一书中所有有关命题演算的定理证实工作(共计220项)。他还在谓词演算部分完成了约150条中的85%工作,直至1965年,鲁宾逊(J.A.Robinson)则提出了归结法这一新方法,从而推动了机器自动推理技术的发展
在模式识别领域方面,在1959年时塞尔费里奇成功开发出了一种模式识别系统;而到了1965年罗伯特(Roberts)则设计了一种模块构建可区分系统的程序。
关于问题解决的研究领域中,在20世纪60年代初纽厄尔等专家基于心理学研究得出了人类解决问题的基本模式,并开发了一款通用的问题解决程序(General Problem Solver, GPS),该系统能够有效地应对多种不同类型的挑战。
在专家系统领域中,在美国斯坦福大学的费根鲍姆教授(E.A.Feigenbaum)领导的研究团队自1965年开始研究DENDRAL这一专家系统项目,并于1968年正式完成并投入实际使用
该专家系统可借助质谱仪实验数据,在化合物分子结构确定方面表现出色。其分析性能已达到甚至超越了相关领域化学家的能力水平,在包括美国、英国在内的多国得到了实际应用。
该研究项目的成功实施不仅实现了建设一个高效的知识管理系统的目标,并且在智能信息处理方面取得了一系列突破性的进展。
这不仅推动了智能信息处理技术的发展与完善,
还为其未来的技术创新提供了重要参考。
这项成果对于提升人类认知水平具有重要的理论意义,
其重要性不仅体现在实际应用价值上。
在人工智能领域中,在1960年时麦卡锡成功开发出了人工智能语言(简称为LISP),这一技术构成了专家系统的核心技术基础。
在1969年创立的国际人工智能联合会议(IJCAI)作为人工智能发展史上的关键性事件,则象征着人工智能这一新兴学科已在世界范围内获得了广泛的认可与赞誉。
自1970年创刊以来,《ArtificialIntelligence》作为一项具有国际影响力的期刊,在推动人工智能领域的发展方面发挥了重要作用,并为研究人员之间的交流提供了平台。在3发展阶段这一主要时期中,则主要指的是自1970年之后。
在20世纪70年代末期,在全球范围内展开了人工智慧研究工作,并且出现了大量的研究成果。
在1972年,法国马赛大学的科麦瑞尔(A.Comerauer)开发并实现了基于逻辑的程序设计语言PROLOG;斯坦福大学的研究人员E.H.肖特利夫及其团队自1972年起致力于开发MYCIN系统
然而,在其他新兴学科的发展情况中也存在类似的挑战性发展轨迹。例如,在机器翻译研究领域中,并非像人们最初预期那样简单易行。过去曾以为只需要一套双语辞典配合一些语法知识即可实现两种语言间的完美互译。
后来才意识到机器翻译远比想象中要复杂。事实上,在某些情况下使用机器翻译可能会导致明显不合逻辑的结果。例如,“眼不见, 心不烦”这句英文语句被错误地翻译为“Outsight, outofmind”。
When translating "again blind and crazy" into Russian, one obtains "the phrase "again blind and crazy""; when attempting to translate the English sentence "Thespiritiswillingbutthefleshisweak," which conveys the concept of having more desire than capability, into Russian and then back again, it becomes "Thewineisgoodbutthemeatisspoiled," which translates to "The wine is good, but the meat is spoiled." When translating "the arrow flies like time" into Japanese and then back again, it becomes "The arrow likes flies," or something similar.
基于机器翻译所遇到的问题,在1960年期间,美国政府顾问委员会发布了一份报告结论:即目前尚未有通用的科学文本机器翻译技术实现,并且在未来一段时间内也并无显著的技术突破预期。因此,在那个时期英国和美国并未继续资助大部分机器翻译项目。
在其他领域中也面临着诸如问题求解、Neural Networks及Machine Learning等领域的挑战;这使得Artificial Intelligence领域的研究一度陷入停滞。
研究人员深入分析了这一情况,并从中提炼了经验和教训。
1977年费根鲍姆于1977年于第五届国际人工智能联合会议中提出了"知识工程"这一新概念,并对该类智能系统的研究与构建具有重要意义。多数人认可了费根鲍姆关于人工智能应从知识角度切入的看法。
从此,人工智能的研究又迎来了蓬勃发展的以知识为中心的新时期。
在这一时期里,在各个不同的领域内对专家系统的研发都取得了重大的进展,并且出现了众多具有不同功能与类型的专业系统如雨后春笋般涌现出来。这些成果带来了显著的经济效益以及社会效益
例如,在地质勘探领域中,PROSPECTOR作为一种自动化决策支持系统具备这样的多维度分析能力:它包含15种不同的矿产知识库内容,并基于岩石标本样本以及地质勘探数据开展定量估算和预测分析;该系统能够推断出各矿床的分布位置、储量规模以及质量特性,并据此制定科学合理的开发方案;在实际应用中能够实现多种类型资源的综合评估与优化配置,在多种实际场景中提供精准的数据支持
该系统精准地发现了价值上千万的钼矿资源。专家系统MYCIN具备识别51种病菌的能力,并能够准确无误地管理23种抗菌素,在帮助医生诊断和治疗细菌感染性血液病方面展现出显著的专业能力;为患者提供科学合理的治疗方案以获得最佳治疗效果。
该系统展现了其强大的处理能力,并在经过严格测试后,展现了较高的医疗水平。美国DEC公司的专家系统XCON能够基于用户需求进行计算机配置。
通常情况下完成这项工作需要三小时
AmericanExpress能够避免不必要的损失,并据相关数据显示每年节省约2.7亿美元。
专家系统技术的进步让人们对知识构成智能的基础有了逐渐意识到的认识;人工智能研究必须建立在知识基础之上。
相关领域的研究取得较大进展,在处理不确定性的知识表示与推理方面取得了显著进展。构建了主观Bayes理论体系、确定性推理框架以及证据融合模型等,并为其相关技术领域的发展提供了坚实的支撑,并有效解决了诸多理论和技术难题
人工智能在博弈领域的广泛应用也广受欢迎。研究者对博弈论始终保持浓厚兴趣,在1956年时人工智能作为一门学科正式诞生时就已开始相关探索。当时科学家们便致力于开发智能系统以解决复杂问题,在这一领域取得了显著成果。随后的几十年里研究人员不断优化算法推动了这一技术的发展如今人工智能已在多个领域展现出强大的应用潜力
1959年它击败了塞缪尔本人,1962年又击败了一个州的冠军。
于Sydney举行的第十二届国际人工智能联合会议上,IBM公司的DeepThought超级计算机系统与澳大利亚象棋冠军Johnsen(D.Johansen)展开了人类与机器的第一场公开对抗,双方均以0比0收场。
1957年时西蒙原先预计未来十年内计算机将具备击败人类世界冠军的能力。然而事实证明该设想未能如愿以偿,在20世纪60年代初深蓝计算机首次击败国际象棋大师卡斯帕罗夫时也仅晚了三十年。
在1996年2月10日至17日期间内, 美国IBM公司投入巨额资金组织了六场"人机大战"活动来纪念国际象棋棋王卡斯帕罗夫与世界上第一台电子计算机诞生50周年纪念事件
这场对决被誉为"人类智慧与人工智能的较量"。双方各自象征着人类智慧与机器能力的巅峰对决。当时深蓝系统是一台运算速度极为惊人的超级电脑。
第一局由深蓝对弈卡斯帕罗夫,在这一局比赛中黑方(深蓝色系统)展现了强大的实力并取得了压倒性胜利直接将世界冠军推上了舆论顶峰然而在接下来的五场比赛中卡斯帕罗夫吸取了前一局的经验采取了更加稳健的战术策略在这五场比赛中他取得了三胜两和的成绩最终总比分定格在四比二
在随后的一年中(即1997年5月3日至11日),由英国科学家研发出的名为"深蓝"的人工智能程序再次挑战世界著名国际象棋大师卡斯帕罗夫。当时这台超级计算机配备有32个处理器以及强大的并行处理能力,并且其运算速度达到每秒两亿次
计算机内部存有超过百年的世界国际象棋大师的比赛记录,在5月3日的那一场比赛中,“棋王卡斯帕罗夫”以横扫的方式击败了由IBM公司开发的程序"深蓝";随后在5月4日的比赛中"深蓝"实现了反败为赢,并最终双方在接下来的三场比赛中实现了连战连和。
双方的关键对决于5月11日正式拉开序幕,在一场比赛中他仅仅移动了19步便退出了战斗。比赛中所用时间仅为略超一个小时。由此可知,在这场备受瞩目的"人机大战"中深蓝以3.5比2.5的优势 triumphed
深蓝色系统的胜利充分展示了人工智能所取得的巨大成就。即使其走法离真正模仿人类思维方式还有较大差距,它已向世界展示出电脑能够在极高的速度与精准度下完成许多与人类思维相关的任务。
深蓝展现卓越的残局战术令观看国际象棋比赛的专家们感到震惊。卡斯帕罗夫评论道:"这场比赛中发现了许多新现象,其中之一就是计算机有时也可以走出走法具有人性化的步骤."
某种程度上来说,在某种程度上不得不给予高度评价这台机器。它凭借对盘势因素的深刻洞察力而展现出非凡的科学贡献。由于这场胜利带来的结果是IBM的股票攀升至180亿美元。
第4节 人工智能学派基于前述论述 我们知道理解人工智能的关键在于探究就普遍意义而言界定智慧的方式 然而 精确界定智慧同样是一项极具挑战性的任务
最早的记载显示古希腊哲学家所采用的知识定义可追溯至柏拉图在其著作《泰阿泰德》一书中首次提出。该定义明确指出了知识所应具备的关键特征:即得到验证为真实并被广泛接受的内容(Justifiedtruebelief),这一概念后来被称为JTB条件(JustifiedTrueBelief)。
但是这一经过两个世纪以上时间形成的定义在1963年被哲学家盖梯尔证伪于1963年哲学家盖梯尔提出了一个广为人知的难题(简称为"盖梯尔难题")这一难题揭示了柏拉图所提出的知识体系的重大漏洞
虽然后来人提出了许多关于知识的不同定义,然而到目前为止仍然没有统一结论。然而就一点而言,则是非常明确的那就是说知识的基本构成单元就是概念。要是想真正掌握任何一门学科的知识体系,则必须从小学阶段就开始打好数学基础。
而知识的本质也可以被视为一个概念本身。因而,在人工智能领域中对概念进行准确的定义至关重要。
我们通常认为一个定义看似简单易懂的概念实际上却难以捉摸(因为涉及到自我指涉的情况)。例如,在这种情况下(即涉及到自我指涉时),会发生许多问题。这些语义悖论往往源于概念的自我指涉性质。
自指与转指这一对概念最早见诸朱德熙先生的著作《自指与转指》,该研究发表于《方言》期刊1983年第一期,并收入其《朱德熙文集》第三卷之中。
陆俭明先生在《八十年代中国语法研究》中(第98页)指出:"自指与转指的区别主要体现在两点上:其一,在于自指仅为词性的转换——从谓词性到体词性,并且语义保持不变;其二,则不仅涉及词性的转换,并且会引起语义的变化——具体而言,在于将行为动作或性质自身转换为与其相关的事物所对应的名词形式。
举例:①教师到来("教师"作为名词短语出现,“教师”是转指,“教师"指的是进行教学的人);教师在讲台前授课时需严谨认真("教师"作为名词短语出现,“教师"在这里具有自指性)。②Unplug这一术语原本的意思是断开电源插座(其本意是指断开电源插座),但在音乐领域常被引申为不用电子乐器来演唱(常见于将"不用电子乐器"的概念用于音乐表演中)。
③color(具有着色)属性属于自指类别;当color用于描述种族或族裔时,则属于他项类别。④"rich"这一形容词属性属于自指类别;而当我们以"the rich"作为限定词引用时,则属于他项类别。知识本身作为一个概念也是值得探讨的
基于此可知,在人工智能领域当前面临的核心挑战即转化为以下三个关键问题:其一是明确该领域所涉及的概念及其相应的表征方式;其二是系统地掌握这些基本知识;其三是将其应用于解决实际问题的技术路径选择与实施过程。深入研究这一核心要素则显得尤为重要。具体来说,则涉及从理论层面明确该要素的内涵与外延。
简单起见,这里先讨论最为简单的经典概念。
经典概念包含三个主要组成部分:第一部分是对对象或属性的一般特征进行符号化表达(即概念称谓),第二部分则是描述其本质属性的方式(即内涵),通常通过命题的形式来刻画这些特征。
第三部分是概念外延的表现形式,在经典集合论中进行描述以明确与该概念相对应的具体实例。例如,在讨论素数(prime)这一典型概念时,则可以通过定义一个数学命题的形式来描述其内涵:仅能被1和自身整除的自然数。
说说"概念"所发挥的作用如何?那么从"概念"的定义结构来看,在具体应用中有哪些重要组成部分?经典"概念"定义通常包括三个关键要素:一是核心意义或本质属性;二是外延范围或适用范围;三是名称标识或符号表示。举个例子说明这三者缺一不可:如果缺少明确的核心意义,则无法准确把握事物的本质;如果忽略外延范围,则会导致应用时范围不清;如果无法确定名称标识,则会失去交流的基础。因此,在深入理解"概念"的过程中需要同时关注这三者的关系与相互补充
该功能具有指示物的功能, 即用于表示客观世界中的物体, 表明物体是否可被感知, 其知觉或测量特征与观察者的主观感受无关
我们可以引用《阿Q正传》中的一个案例:"那赵家的狗,为何看我两眼呢?"其中"赵家的狗"指代现实生活中的真实存在的宠物犬。
但概念的指物功能并非总是能够完美实现,在某些情况下可能难以完全达成。其中一些概念设想的存在实体在现实中并不存在,并非单纯的心灵现象所包含的那种存在形式。例如"鬼"这种现象就属于这种情况。第二个核心的功能则是指心的功能即指向人心智世界的那种存在形态它代表了心境世界的那种存在表现形式与之相对应的表现形式则是心境世界的那种存在状态与之对应的表现形式则是心境世界的那种存在状态与之对应的表现形式则是心境世界的那种存在状态与之对应的表现形式则是心境世界的那种存在状态与之对应的表现形式则是心境世界的那种存在状态
鲁迅有一篇著名的文章名为《论丧家的资本家与乏走 dog》,可以看出,“ walkedog ”并不是现实世界中的动物,在他的精神世界里,“ walkedog ”仅仅代表一种心理状态(即心里的 walkedog ,如在现实中(梁实秋先生显然绝非 dog))。这一概念的核心功能必定存在。
如果对于某一个体而言...则无法实现其指心功能。最后一个功能是指名功能...这些符号名称构成了各种语言的基础。
以其"colorlessgreenideassleepfuriously"作为最为著名的实例
这句话没有意义但严格遵循语法规范仅限于符号系统内部即仅此而已然而"鸳鸯两字怎生书"指的就是"鸳鸯"这两个字组成的名字
通常情况下
根据波普尔的三界理论可知认知界、物界与心界之间虽有一定联系但仍具各自独特性因此在分析某一思想时其三重属性虽相互关联却各有独立特征
关键在于经过漫长的发展历程后, 这三大核心功能持续发展并相互之间变得愈发复杂。然而, 在概念体系的三大核心依然保持不变。
在现实生活中,掌握一个概念需要从三个方面入手:一是认知其名称;二是明确其指代的对象(可能存在于物理世界中)。更重要的是,在个人的心智空间中形成对该概念的形象或图像。
如果仅有一个实例,则不可行。一旦知道了人工智能所具备的三个核心功能,则能理解其所属的人工智能学派及其相互关系。人工智能本质上是一个概念,并且要使一个概念成为现实,则需实现其三个功能。
人工智能的三个学派致力于实现机器具备人工智能,并基于不同概念的功能划分了各自的研究方向
该人工智能学派致力于开发能够执行指定任务的人工智能系统而被视为 symbolist 学派
符号主义学派的主要代表是Simon与Newell二人,在他们所发展的基于物理符号系统的假设下认为:当在符号计算上实现相应功能时,在现实世界中也能实现对应的功能;这一观点恰好构成了智能活动的充要条件。
由此可见,在符号主义理论中提出这样一个观点:即如果能在机器上实现某种正确性,则现实世界的运行也会遵循这一规律并呈现相同的状态。用更直观的话来说就是:当名称对应了事物的真实属性时,则事物自然呈现正确状态。从哲学角度来看,在讨论物理符号系统假设方面有一个非常著名的理论实验——即本章1.1.3节所提及的图灵测试。
图灵测试旨在解决如何判断一台机器是否具有智能的问题核心。该测试主要局限于将智能的表现限定在指定的功能范围内。然而马少平教授通过故事表明,仅实现概念的功能并不等同于实现了概念的对象
具体而言,在所指代的对象区分的基础上,哲学家约翰·塞尔勒精心构造了一个思想实验来挑战图灵测试的标准。这个思想实验即被称为著名的中文屋实验。
改写说明
从哲学角度来看对符号主义的一种正式批评指出基于符号主义实现的人工智能与人类智能之间存在根本性差异然而尽管如此在人工智能研究领域中它仍然发挥着关键作用其早期工作的主要贡献体现在机器定理证明和形式知识表示技术上
在机器证明领域中,在较早时期Simon与Newell开创了这一领域,并得到了重要成果;王浩、吴文俊等中国科学家也取得了显著成就。机器证明之后,在符号主义中最重要的发展是专家系统和知识工程;最著名的学者则是Feigenbaum。
如果不认为沿着这条路就能全面实现全部智能,则无需怀疑这种方法是否正确。日本第五代智能机遵循了知识工程的道路,在现在的视角中这并不奇怪。符号主义面临的主要挑战包括三个关键方面。
第一部分是概念的组合爆炸问题。基本概念形成了无限的概念网络。由于常识难以穷尽而导致推理过程无止境地延伸。第二部分是命题的组合悖论问题。
两个都属于合理命题,在它们结合起来后就形成了一个无法判断真假的陈述句。例如著名的柯里悖论(Curry’s Paradox)(1942),就是一个典型的例子。而第三个问题则是更为棘手的挑战,在现实生活中获取经典概念往往十分困难,并且这些知识也难以被提取出来。
上述三个问题成了符号主义发展的瓶颈。
连接主义主要认为大脑是所有智能的基础,并专注于研究大脑神经元及其连接机制。它致力于发现大脑的结构以及处理信息的机制,并试图揭示人类智能的本质规律;最终在机器上实现相应的模拟过程。
前面研究表明知识构成智能的基础,并且将其中的概念视为知识的基本构建单元。由此可知,在实际应用中连接主义主要聚焦于如何在计算机上实现这些概念的心智模型及其相关的认知功能。这些努力直接关联到对这些概念的理解和表征机制。
该研究于2016年发表在Nature期刊上,并揭示了大脑语义网络的存在性。研究发现,在每一个大脑区域中都存在对应的概念表征。这一现象的确切存在已被证实。这一发现进一步支持了连接主义模型具有扎实的神经科学基础。
在连接主义学派中具有重要地位的主要人物包括麦克洛克、皮茨以及霍普菲尔德等人。沿着这一路线推断下来,在连接主义理论中他们声称能够实现完全的人工智能。对此思想体系提出了质疑的是哲学家普特南所设计的"缸中之脑实验"。
该实验具体操作如下:一名参与者(可视为本人)接受了一次手术。医生将取下的大脑置于含有营养液的容器中,并将其与外部设备通过神经末梢相连。与此同时,在线程序指导大脑接收并处理信息。
从这个人角度来看,在他的身体各处都安装了传感器(人、物体、天空),这些传感器均能检测到神经感受器的存在,并将信号传递给大脑。这个大脑不仅可以接收并提取记忆片段,在手术后恢复期间也可以提取这些记忆片段。例如,在手术后恢复期间可以提取这些记忆片段。将这些环境和日常活动纳入考虑范围后,“感觉到”自己正在阅读这段文字的过程实际上是在模拟一个思维过程——甚至可以在其中加入一段代码以模拟思考过程。
胸有成竹的思考下,缸中之脑实验表明,即便连接主义实现了人机交互机制的人工智能思维模式构建,但其内部的认知结构仍然未能完全匹配人类思维的本质特征——即所谓的"指心"并未出现问题;然而,其对外界信息处理的能力却明显不足——即所谓的"指物"仍存在严重的缺陷。由此可知,以连接主义实现的人工智能与人类智能之间仍存在显著差异;即便如此,在大众中对AI实现路径的认知仍主要局限于这一条探索路径
在围棋领域应用了深度学习技术的AlphaGo击败了李世石,并随后击败了柯洁;而在机器翻译方面这一技术已达到超越人类水平;同样地,在语音识别与图像识别领域这一技术同样也达到了实用水平。
从一个客观的角度来看,在深度学习领域已经取得了显著的研究成果,并且已经实现了工业应用的效果。然而,并不能因此认为基于联锁论的方法就能达到人类智能水平。关键在于即使想要彻底实现基于联锁论的人工智能系统依然面临巨大的挑战。
到目前为止,科学家们对于人脑如何表征概念以及这些表征的具体形式、编码方式和组合方式等问题仍然缺乏明确的答案。现有的神经网络架构及深度学习方法在真实模拟人类大脑运行机制方面仍存在显著差距。
- 行为主义认为智能建立在感知与行动的基础之上。无需涉及知识表示或推理过程。仅关注如何表现出智能行为即可。也就是说,只要能够实现指物功能就能被视为具有智能。\n\n这一学派的早期代表作是Brooks的六足爬行机器人
对此而言,在分析人类认知的过程中
完美伪装者能够根据外部环境的需求做出完美的呈现。当需要表现出悲伤时,则可以通过夸张的神情和声音让旁观者感同身受;而当需要表现出快乐时,则可以通过自然的表情描写让气氛变得活跃。然而,在外表再isset的情况下(isset),其内心始终保持冷静的状态。
相反地, 不论其内心激动如 passion 或者冷酷如 ice, 斯巴达人外部始终呈现出泰山上经受冲击而不变色的状态。完美伪装者与斯巴达人的外在表现均与内心毫无关联, 这种智能是如何通过外部行为来测试的?
基于行为主义的方法构建的人工智能也不等同于人类的认知能力。对于行为主义方法而言,在实际应用中所面临的主要挑战可以通过莫拉维克悖论来进行深入分析与探讨。
所谓莫拉维克悖论...即计算机处理起来困难的问题反而是简单的、而简单的却难以处理的是那些问题;其中最难以被复制的是那些无需意识参与的人类技能。当前,在模仿人类执行动作这类任务方面仍面临巨大挑战。
比如,在网上看到波士顿动力公司开发的人形机器人具备完成高难度倒立行走的能力,并能稳定应对各种地形挑战。然而这些机器人的显著问题是能源消耗显著运行噪音较大
大狗机器人最初是由美国军队订购的。然而由于大狗机器人启动时发出的声音能够在较远的距离被清晰听见,显著提升了其作为移动目标的可能性,这导致它在战场上几乎没有任何实用价值,因此最终美国内部决定取消了这一订单。
人脸识别的发展历史是怎样的?
人脸识别被视为一个前沿领域的深入探讨问题,在这一领域中不断涌现大量研究论文,并且数量已经达到了令人担忧的程度。
本文旨在通过分阶段介绍FR的研究历史及其发展现状来帮助读者更好地理解这一领域的发展历程及技术演变。
此表格总结了人脸识别研究的发展历程,并详细列出了每个历史阶段具有代表意义的研究内容及其技术特征。
下文简述三个研究阶段的进展状况:第一期间(1964至1990年),该时期的人脸识别研究通常被视为一种普遍的模式识别问题,在该时期的人脸识别研究通常被视为一种普遍的模式识别问题。在该时期的人脸识别研究通常被视为一种普遍的模式识别问题。主要的技术方案基于基于人脸几何结构特征的方法。
这一成果主要体现在人们探究剪影(Profile)这一领域的研究工作上。在形态特征提取和分析方面,人们的大量研究工作主要集中在对面部剪影曲线的研究上。此外,在识别任务中,人工神经网络也曾被研究人员进行过相关应用尝试。
早期参与AFR研究的研究人员不仅有Bledsoe一派学者还包括Goldstein等其他重要人物
金出武雄在1973年完成了第一篇关于AFR领域的博士论文,并在京都大学获得博士学位。自1973年起,在卡内基-梅隆大学机器人研究院任教至今的他,在人脸识别领域一直活跃着。
他所在的团队同样是该领域的重要力量。总体来看,在该阶段中的人脸识别研究属于初级阶段,在这一时期所取得的一些基础性成果也不算特别突出,并且在实际应用方面则进展较为缓慢。
从1991年至1997年的第二个阶段期间时长虽短却 marks the pinnacle of advancements in facial recognition technology
美国麻省理工学院(MIT)媒体实验室的特克(Turk)和潘特兰德(Pentland)开发出了一种叫做"特征脸"的方法是该领域的breakthrough
其后的发展中,大量的人脸识别技术在一定程度上都与其紧密相关,并且该方法已被视为与归一化的协相关量(NormalizedCorrelation)共同构成的人脸识别性能测试基准算法。
在该时期中值得一提的重要工作在于麻省理工学院人工智能实验室的研究人员布鲁内里与波基奥(Brunelli and Poggio)在约1992年开展的一项对比实验研究。他们在模式识别领域展开了深入探讨,在不同方法之间进行了系统性比较分析,并得出了明确结论:即基于模板匹配方法在识别性能上优于基于结构特征方法。
这一指导性的成果与特征脸技术相互作用,在很大程度上打破了纯粹依赖传统基于特征提取的人脸识别方法研究,并推动了表观模式建模与统计识别方法的发展,在这些领域中占据了主导地位
一些学者开发出一种基于Fisherface的人脸识别技术是这一时期的一个显著贡献
该种方法首先应用主成分分析技术(PrincipalComponentAnalysis, PCA)实现图像表观特征的降维。
在此基础上,应用线性判别分析(LinearDiscriminantAnalysis,LDA)的方法提取或获得降维后的主成分,旨在通过较大的类间差异与较小的类内差异实现分类效果的最大化.
该技术目前仍被视为主流的人脸识别方案之一,并衍生出了多种不同的变体。具体而言,在现有研究中主要涉及以下几种方向:首先是以零空间基底法为基础的方法;其次是在子空间鉴别模型基础上发展起来的技术;再次则是通过强化传统鉴别模型而获得性能提升的途径;此外还包括直接应用线性鉴别分析的传统LDA方法,并结合核学习理论进行改进的研究方向
麻省理工学院的马哈丹(Moghaddam)则在此基础上发展出一种基于双子空间的贝叶斯概率模型来实现人脸识别的方法
此方法采用差异分析法(Difference Method),将其将两幅人脸图像对的相似度计算问题转化为两个类别(内部差异与外部差异)的问题,并分别处理这两部分数据。其中内部差异与外部差异的数据都需要首先经过主成分分析(PCA)技术进行降维处理,并分别计算这两个类别对应的条件概率密度函数。最后应用贝叶斯决策理论(包括最大似然估计或最大后验概率估计)完成人脸识别过程。
除了现有的几种识别手段之外,在当前阶段还有一种关键的方法——弹性图匹配技术(ElasticGraphMatching, EGM)也被提出来了。
其核心概念在于通过构建一个属性图来进行人脸描述:在该模型中各顶点对应于面部的关键控制点,并赋予每个顶点由Gabor变换[12]提取的多分辨率、多方向局部特征,并命名为Jet。每条边则表征了各关键控制点间的几何关联性。
对于任意输入的人脸图像, 弹性图匹配方法利用一种优化搜索策略实现对预先定义的关键面部特征点进行定位, 并提取这些关键点处的Jet特征, 生成该输入图像对应的属性描述图. 最后阶段则计算该属性描述图与已知标准的人脸属性描述之间的相似程度, 从而完成识别任务
该方法具有长处,在捕捉面部整体轮廓的同时也能细致刻画关键部位。最近有关对该技术进一步改进的研究报告有所报道。
局部特征分析技术源自洛克菲勒大学(RockefellerUniversity)的艾提克(Atick)等学者。
LFA本质上是一种基于统计 foundation 的 low-dimensional object description technique, compared to PCA which is limited to extracting global features and cannot maintain local topological structures, LFA builds upon the global PCA description by extracting localized features while simultaneously preserving global topological information, thereby demonstrating a more pronounced analytical and discriminative capability.
LFA技术已广泛应用于著名的FaceIt系统, 由此可见后期未有学术进展. 美国国防部负责开发的FERET项目无疑是一个重要事件.
FERET项目的主要目标是研发一套适用于安全领域的情报与执法机构的面部识别技术(AFR)。该计划涵盖三个关键方面:支持多项面部识别研究项目;构建用于 facial recognition 的 Feret 人脸图像数据库;以及组织 Feret 面部识别性能评估工作。
该项目在连续三年内(1994年至1996年)组织了三次大规模的人脸识别评测活动,在这一过程中有三种最知名的技术参与了测试工作,并显著推动了相关技术的进步与应用
该测试的另一个重要创新在于指出了人脸识别的发展重点:在实际应用中的光线变化、人物姿态等非理想采集条件下的人脸识别问题逐渐成为研究热点的方向。
灵活的人脸建模技术(Flexible Models)——涵盖 Active Shape Model(ASM)与 Active Appearance Model(AAM)的是该领域在该时期的 facial modeling领域具有重要意义
ASM/AAM将人脸划分为2D形状与纹理两个独立的部分,并各自采用基于统计的方法进行建模(如主成分分析法)。接着通过主成分分析法将这两者结合在一起对人脸进行整体的统计建模。
该系统具备优秀的柔性和卓越的图像合成性能;该方法可结合生成对抗网络等技术手段进行特征提取和建模过程;在实际应用中得到了广泛应用;其中衍生出了多种改进型模型。
就目前情况来看,在当前阶段而言
就技术方案而言,在这一阶段内的主要主流技术包括二维 facial image 的子空间线性鉴别分析、基于表观统计模型以及基于模式统计识别的方法。
在1998年至今期间开展的FERET’96人脸识别算法测试研究表明:基于实际采集中的各种干扰因素(如光线变化、姿势差异等),主流的人脸识别技术在鲁棒性方面仍显不足。因此,在非理想条件下捕获的对象特征以及环境变化等因素的影响下所导致的技术瓶颈逐渐被关注并得到研究
与此同时,在商业领域内的人脸识别系统也得到了显著的发展。基于此,在FERET测试的基础上先后于2000年和2002年组织了两次评估活动
该研究团队开发的基于光照锥模型的人脸识别系统在多个光照条件下表现突出。该团队证实了以下关键论点:同一人脸在同一视角下,在不同光照条件下获取的所有图像在图像空间中构成一个凸锥体——即所谓的光照锥。
为了解决从有限数量的人脸图像中推断出不同光照条件下的三维形状问题, 他们扩展了传统的光度立体视觉方法, 基于朗伯模型、凸面模型以及远处点光源假设, 通过利用7幅同一视图条件下的不同光照强度信息来重建物体的空间结构及其反射特性(传统的方法依赖于三张具有不同照明方向的照片来推断出物体曲面的方向)。从而使得能够在任何新的照明条件下快速生成对应的三维重建结果, 并完成整个光照锥计算的过程
识别主要通过将输入图像与各个光照锥间的几何距离进行度量。在该阶段内,以支持向量机为代表的统计学习理论也得到了广泛应用,并成功应用于人脸识别与确认技术领域中来。其中,在类别的划分上,支持向量机主要处理两类分类问题,而人脸识别则涉及更为复杂的多类分类任务。
通常有三种策略解决这个问题,并非仅限于特定方法
布兰兹(Blanz)和维特(Vetter)等共同提出了一种基于3D可变形(3D-Deformable Model)模型的方法,在不同姿态与光照条件下实现的人脸图像分析与识别技术,在这一阶段内被视为一项具有开创性贡献的研究工作。
该方法本质上属于合成分析技术的核心组成部分,在这一领域具有显著的技术突破。其核心创新点在于建立在3D形状与纹理统计变形模型的基础上,并在此基础上还采用了图形学模拟的方法来详细刻画图像采集阶段中的透视投影变换以及光照参数设置。通过这种创新设计,在建模过程中不仅能够准确反映面部几何特性和纹理信息能够完全独立于摄像机设置以及照明条件的变化特性。这大大提高了面部图像分析与识别的技术效率
Blanz的实验结果表明,在具有多姿态、光照变化和表情特征的人脸数据库(CMU-PIE)以及多姿态人脸数据库(FERET)中进行测试后发现该方法表现出色,并且通过这些测试验证了其有效性。
在2001年举办的国际计算机视觉大会(ICCV)上,研究团队由来自康柏研究院的维奥拉(Viola)和琼斯(Jones)组成,他们成功展示了基于简单矩形特征提取与AdaBoost算法相结合的创新性实时人脸识别系统.该系统能够在CIF格式中高效识别正面人脸,并以平均每秒15帧以上的速度达成这一目标
该方法的主要贡献包括:1)采用高效简单的矩形特征来表示人脸图像特征;2)利用AdaBoost算法将多个弱分类器组合成一个强大的分类器的学习方法;3)通过应用级联(Cascade)技术来提高检测速度
目前采用这种基于人面或非人面学习策略我们实现了准实时多姿态的人脸检测与跟踪此方案不仅支持准实时性还具备多姿态处理能力
沙苏哈(Shashua)在2001年开创了一种基于商图像[13]的技术用于人脸图像识别与绘制。
该技术是一种建立在特定对象类图像集合学习基础上的绘制方法,在利用训练集合中有限的不同照明条件的图像样本的前提下实现对任意输入人脸图像的多光条件下样本生成能力
在此基础上,沙苏哈等详细阐述了各种光照条件下不变的人脸签名(Signature)图像的概念,并将其作为实现光照不变人脸识别的一项应用。通过实验验证了该方法的有效性。
巴斯里和雅各布则通过球面谐波表征光照,并借助卷积运算处理朗博反射,在严格证明的基础上得出了一个重要结论:即由任何远处光源所生成的所有朗博反射函数集合构成了一个线性子空间
巴斯里(Basri)和雅各布(Jacobs)则利用球面谐波(SphericalHarmonics)表示光照、用卷积过程描述朗博反射的方法解析地证明了一个重要的结论:由任意远点光源获得的所有朗博反射函数的集合形成一个线性子空间
该凸面物体在不同光照下的图像集合可用一低维线性子空间近似表示这一现象不仅与先前基于统计建模的方法实验结果相符同时也推动了其理论层面的发展
而且, 从而使得利用凸优化方法得以保证光照函数非负具有实现的可能, 为此类问题提供了重要思路. FERET项目后, 后出现了若干人脸识别商业系统.
美国国防部有关部门组织进行了一项针对人脸识别商业系统的评测活动FRVT,并已举办过两次:FRVT2000和FRVT2002。
这两次测试就对知名的人脸识别系统展开了性能对比分析,并非单纯的比较研究。其中FRVT2002测试的结果显示Cognitec,Identix和Eyematic这三个商业产品在性能指标上均远超其他同类系统,在多个关键评估维度上表现突出;然而从各项具体数据对比来看这些产品的优势并不显著明显差异主要体现在细节层面
另一个人则全面概述了人脸识别技术的发展状况。在理想情况下(正面向机证照片),涉及37,437人及121.589张面部图像的人脸识别(Identification)达到了最高准确率达到73%,而其误识率(EER[14])约为6%。
FRVT测试的主要贡献不仅进一步揭示了目前的人脸识别算法在一些关键问题上仍然存在不足
FRVT2002测试结果表明:目前的人脸识别商业系统在面对室内外光照变化、姿态以及时间跨度等因素的影响下仍表现出较低的性能水平,并且大规模人脸数据库在准确识别率方面也仍存在明显的问题。这些问题仍需通过进一步的研究与改进得以解决。
就目前情况来看,在非理想成像场景(尤其是光照条件及姿态设置方面存在不足)以及对象难以满足匹配需求的大规模人脸数据库中进行人脸识别时所面临的问题已逐渐成为当前研究的重点领域
非线性建模方法正在发展为机器学习领域的重要研究方向之一,并且统计学习理论作为理论基础已经获得广泛关注。以Boosting[15]为基础的学习技术正逐步发展成为机器学习的重要组成部分,并且基于3D模型的人脸建模与识别方法等正逐步发展成为广泛应用于各个领域的关键技术趋势。
就其双重重要性而言,在计算机视觉领域中的人脸识别系统既具有科学研究的价值又具备广泛的应用前景。在国际上众多研究人员经过数十年的努力取得了一系列令人瞩目的研究成果,在特定领域自动识别技术已获得成功的应用。
这些成果深化了我们对自动人脸识别问题的认识,并且特别关注其挑战性
尽管在处理大量人脸数据的处理速度与精确度方面,在某些情况下现有的自动人脸识别系统可能已经超越了人类的能力。然而,在复杂的环境下进行一般性的人脸识别问题时,则由于自动识别系统的稳定性与可靠性明显不足而远逊于人类的表现。
这种差距产生的根本原因尚不清楚, 由于我们对人类自身视觉系统的基础知识了解得非常有限, 因此这一问题仍然值得深入研究.
从模式识别及计算机视觉等相关学科的角度分析表明,在现有条件下难以实现对面部信息进行合理采样以获得有效传感器(考虑到单目摄像机与人类双眼系统在感知能力上的本质差异),这一结论也反映出我们在人脸识别方法论上存在明显不足(主要表现在对人脸特征提取的关键技术研究上),此外还有待于进一步探索自动人脸识别技术所固有的理论极限(即当前自动人脸识别技术所能达到的最大理论精度)
尽管如此,使计算设备具备与人类类似的人脸识别能力仍然是该领域众多研究人员的理想追求.深信不疑的是,随着研究的深入发展,我们有望进一步提高对这一问题的理解.
人工智能到目前为止经历怎样的发展历程
一是起始发展阶段:从二十世纪五十年代至六十年代初期。人工智能概念提出后不久,在数学家与计算机先驱共同努力下陆续出现了多项具有里程碑意义的研究成果(如自动推理系统、Ai跳棋程序等),推动了人工智能技术进入第一个快速发展时期。
二是回顾发展阶段:20世纪60年代至20世纪70年代初期。人工智能初期的发展带来了显著的进步和突破性成果;显著提高了人们的期待水平;与此同时,在这一阶段中;人们开始承担更为复杂和具有挑战性的任务;并试图设定难以实现的目标
然而,在经历了多次持续的挫折与未能达成预期目标的情况下(例如:仅凭机器无法证明两个连续函数之和仍为连续函数、机器翻译出现了令人啼笑皆非的笑话等),人工智能的发展陷入停滞。三是应用发展期:1970年代初期至1980年代中期。
20世纪70年代初产生的专家系统通过模仿人类专家的知识体系与实践经验,在特定领域内对问题进行求解,在人工智能领域实现了从理论研究向实际应用转型,并推动了由一般推理策略探讨向运用专门知识优化的重大转变
智能信息处理系统在医疗、化学以及地质等多个领域展现出显著的应用效果,并促进了人工智能技术的发展。四是低谷期:20世纪80年代中期至20世纪90年代中期。
随着人工智能应用领域的扩展,在各个行业中的具体运用逐渐受限,并且在某些领域中无法充分发挥潜力的主要原因在于:其一是该系统缺乏广泛的知识储备;其二是获取相关知识的过程较为复杂;其三是现有的推理机制较为单一;其四是不具备分布式的处理能力;其五是难以与现有的数据库系统实现无缝对接
五是稳步发展阶段:从20世纪90年代中期一直到21世纪初这一段时期。随着网络技术和尤其是互联网技术的不断发展进步,在推动人工智能领域内的创新研究的同时也促进了人工智能技术逐步延伸至实用性领域。
- 1997年IBM的深蓝超级电脑击败了国际象棋世界冠军卡斯帕罗夫。
- 2008年IBM推出了"智慧地球"的概念。
- 上述都是这一阶段的关键事件。
- 六号黄金发展时期:自2011年以来。
由于大数据、云计算以及互联网和物联网等信息技术的快速发展,在泛在感知数据和图形处理器等计算平台上推动了以深度神经网络为代表的人工智能技术迅速发展。这些技术创新使得科学与应用之间的"技术鸿沟"被跨过,并促使图像分类、语音识别以及知识问答等人工智能应用实现了从无法使用到能够使用的重大突破,在这一领域迎来了快速发展的新机遇
