人工神经网络的发展历程,神经网络发展历程简述

神经网络的历史是什么?
沃伦·麦卡洛克与沃尔特·皮茨(1943)利用数学原理以及一种称为阈值逻辑的技术开发了一种神经网络计算模式。这些模式则推动了对神经网络研究的不同探索方向。
一种主要聚焦于大脑中的生物学过程……另一种则侧重于神经网络在人工智能领域的应用……一、赫布型学习 上世纪四十年代末……心理学家唐纳德·赫布基于神经可塑性机制所提出的关于学习的理论模型被称为赫布型学习
赫布型学习属于一种典型的无监督学习规则。其后续版本是长期增强作用的早期实例。自1948年起,研究者将这一计算理论应用于B型图灵机。
法利与韦斯利·A·克拉克(1954年)率先将电子计算机投入实用,并将其统称为"计算器"。他们在麻省理工学院成功模拟了赫布提出的神经网络模型。与此同时,在1956年时的纳撒尼尔·罗切斯特及其团队则致力于研究并实现了对抽象神经网络行为的建模
弗兰克·罗森布拉特发明了感知机。它属于一种模式识别技术,在基础算法中仅依赖于加减运算即可支撑两层的学习网络。他进一步提出了异或门电路的概念以解决传统感知机无法处理的问题
这些回路长期难以被现有神经网络架构识别直至1975年时反向传播算法的出现才彻底改变了这一局面自马文·明斯基及其合作伙伴西摩尔·派普特于1969年发表的相关研究后在一段时间内关于神经网络的研究进展缓慢
该研究揭示了神经网络领域的两大核心挑战。其中一项问题是传统感知机模型在异或逻辑电路处理上存在局限性。另一个关键挑战在于当前计算机系统在处理复杂而庞大的神经网络时所需的时间过长。
当计算机计算能力得到显著提升之前,神经网络的研究停滞不前。二、反向传播算法与复兴随后成为一个重要的突破点的是由保罗·韦伯斯提出的反向传播算法(Werbos1975)。
这个算法很好地克服了异或的问题,并且还更为普遍地训练多层神经网络。在20世纪80年代中期,分布式并行处理(当时称作联结主义)兴起。
戴维·鲁姆哈特与詹姆斯·麦克里兰德合著的教材详细阐述了联觉理论在人工神经网络系统建模中的应用。尽管这一方法作为大脑中神经活动研究的基础工具而被广泛认为是有效的,然而这一简化模型与大脑实际生理结构之间的关联性仍然存在争议。
人们不清楚人工神经网络能多大程度地反映大脑的功能。
支持向量机与其他较为简单的算法(如线性分类器)在机器学习领域的发展趋势已超越了神经网络。如深度学习的兴起带来了对这一技术的关注,在21世纪初 neural networks 的研究取得了显著进展。
三、自2006年以来,在生物物理模拟与神经形态计算领域中被广泛使用的CMOS技术实现了相应的技术突破。最新研究表明,在进行主成分分析与卷积神经网络应用时,基于纳米架构的设计展现出显著的优势。
一旦成功的话,则意味着我们能够开发出一种新型神经计算装置。这种装置将基于学习而非程序设计,并非数字技术的基础而是模拟技术的核心;然而其首个实际应用可能是一个数字化的CMOS芯片。
在2009至2012年间,在Swiss人工智能实验室IDSIA的研究团队下,在Jürgen Schmidhuber的领导之下开发出的循环神经网络与深度前馈神经网络,在模式识别与机器学习领域获得了8个项目的国际冠军
例如,在第2009年ICDAR比赛中取得了三项关于连笔字识别的任务的胜利,并且在开始学习之前,并不知道他们即将需要掌握的三种语言的相关信息。
由IDSIA的DanCiresan及其团队运用了这种方法开发出利用GPU的实现方案,在多个模式识别竞赛中取得了优异成绩,并在IJCNN2011交通标志识别竞赛中取得显著成绩
他们的神经网络也是第一台能够在多个关键领域中展现出卓越性能的人工模式识别器,并且它首次实现了在关键的标准测试如IJCNN 2012 交通标志识别系统以及由 Yann LeCun 提出的 MNIST 手写数字分类任务中达到甚至超越人类水平的技术指标
类似于1980年Kunihiko Fukushima发明的神经网络模型及其视觉基准架构(由David H. Hubel与Torsten Wiesel于初级视觉皮层中发现的基础而复杂的细胞所启发)所构建的深度、高度非线性的人工神经网络架构能够通过多伦多大学Jeffrey H. Hinton实验室采用无监督学习方法进行有效的训练。
在2012年时神经网络迅速发展起来。这一现象的主要原因在于计算技术的进步,在推动了大量复杂运算的同时也降低了这些运算的成本。基于AlexNet模型的基础上, 大量深度学习架构开始出现。
2014年推出了残差神经网络这一技术,在该领域取得了重大进展。这一技术极大地突破了传统神经网络对深度应用的限制,并为深度学习的概念奠定了基础。
典型的一个人工神经网络由三个主要组成部分构成:架构(Architecture)定义了网络中的变量及其连接模式。
举个例子来说,在神经网络中所涉及的变量主要包括:一是神经元之间的连接权值(weights),二是单个神经元的激活值(activation)。这些参数共同构成了神经网络的核心机制。
大多数神经网络模型通过其激活函数(ActivationRule)遵循一种短期内起作用的动态规则,在这种情况下,每个神经元会依据其他神经元的活动来调节自身的激励值。
通常来说,在神经网络中激活函数的表现会受到权值分配的影响。(即该神经网络的参数配置)至于第3条所描述的学习规则(LearningRule),它决定了在网络中权重随时间的变化由学习规则指导或调整。(这种变化过程通常被视为一种长期视角下的动态机制。)
通常情况下, 学习规则基于人工神经元的激励水平。然而, 它也可能基于指导者提供的目标数据与当前参数设置。例如, 一个用于手写识别的人工神经网络拥有若干个输入单元。这些输入单元会被用来捕捉来自输入图像的数据特征。
在激励值经过加权计算并应用特定函数后(由网络的设计者决定),相应的神经元将激励值传递给其他神经元。这一过程会持续进行直至达到激发阈值(设定的具体数值)。最终的结果是该输出神经元的激励值决定了识别出的字符是哪一个字母。
谷歌人工智能写作项目:小发猫

神经网络的发展历史
1943年,W·Mcculloch与W·Pitts两位学者基于对神经元基本特性的深入研究,系统分析和详细总结后首次提出了神经元的数学模型rfid 。该模型自发布以来便被广泛采用并深刻影响了这一领域的研究发展
因此,在人工神经网络领域中他们两人被视为主要贡献者。1945年冯·诺依曼领导的研究团队成功实现了存储程序式的电子计算机设计并标志着现代电子计算机时代的开端
1948年,在其研究工作中对人脑结构与存储程序式计算机两者在基本架构和功能实现上存在显著差异进行了深入分析,并成功构建了一个由简单神经元组成的动态自适应系统。
然而,在指令存储式计算机技术急剧发展的背景下,他却让我放弃了自己的神经网络研究新方向,并转而投入了这一领域的研究工作,在此期间取得了重大的成就。
虽然冯·诺依曼的名字与其在普通计算机领域相关联,并且他在人工神经网络研究方面也是一位先驱者之一。20世纪50年代末期,F·Rosenblatt设计制造了第一台"感知机",这种机器被归类为多层次的神经网络模型。
这项研究开创性地将人工神经网络从理论探讨转化为工程应用。当时,在那个时期里
然而,在那个时期关于人工神经网络的研究热潮并未持续太久。随后又有大量研究人员转向其他领域。具体而言,则有以下几个原因:其一是在那个全盛时期的数字计算机时代背景下,“人能机器能”的理念深入人心;其二当时电子技术工艺水平较为落后,“主要使用的还是电子管或者晶体管这类笨重设备制造的人工神经网络规模宏大且造价高昂;其三在感知机理论方面也存在诸多局限性例如基于线性感知机无法解决像异或这样的基本问题以及多层感知机尚无法有效解决复杂的模式识别问题等这些因素共同导致了大量研究人员对人工智能领域的前景逐渐失去了信心。”
20世纪60年代末期,人工神经网络研究陷入停滞。
与此同时,在20世纪60年代初,
Widrow提出了一种自适应线性元件网络,
这种系统采用连续取值的线性加权求和并结合阈值机制。
在此基础上发展出非线性的多层次自适应体系。
那时
80年代初期,模拟与数字混合型超大规模集成电路制备技术发展到了一个新的高度,得到了广泛应用。同时,在多个应用领域中,数字计算机的发展仍面临着发展上的障碍。这种背景下,寻求人工神经网络解决方案提供了良好的契机。
美国的科学家Hopfield于1982年和1984年间在美国科学院院刊上分别发表了两篇关于人工神经网络研究的重要论文,在学术界引起了广泛关注并产生了深远影响。这些研究使得人们重新认识到神经网络的强大功能及其实际应用的重要性
随后, 大批学者及研究人员围绕着 Hopfield 提出的方法展开了深入研究, 并由此催生了 80 年代中期以来人工神经网络研究的热潮
人工神经网络是哪一年由谁提出来的
人工神经网络是在1943年被心理学家W.S.McCulloch与数理逻辑学家W.Pitts共同创立的。
研究者运用MP模型构建了对神经元进行形式化数学建模及网络架构设计的方法体系,并验证了单一神经元具备执行逻辑运算的能力。从而奠定了现代人工神经网络研究的基础。1949年时心理学家提出假设:突触接触强度具有可调节性。
上世纪六十年代末,人工神经网络经历了持续的发展阶段,并且在这一时期取得了显著的进步。其中包含了感知器以及自适应线性元件等。
M.Minsky及其团队对代表性的神经网络系统——感知器的功能与局限进行了深入研究,并于1969年在《Perceptron》著作中进行了详细阐述。该著作明确指出感知器无法解决高阶谓词问题。
详细参考资料中对人工神经网络的特点与优势进行了详细阐述,并具体体现在以下几个方面:第一个方面是具有自学习功能。
例如,在实现图像识别的过程中,在输入大量不同类型的图像样本及其对应的应识别结果到人工神经网络后, 该系统通过自我学习机制逐渐掌握了识别类似图片的能力. 自我学习机制对预测任务具有重要意义.
预计未来的人工神经网络计算机将实现人类的经济、市场及效益预测,并展现出广泛的应用前景。第二点是该系统具备联想记忆能力。第三点是该系统能够高效识别优化解的能力。
寻求一个复杂问题的最优解通常会涉及较大的计算量。通过构建一个专为该问题设计的反馈型人工神经网络,并充分运用计算机的强大计算能力,则可能会使获得优化解的过程变得较为迅速。
有人可以介绍一下什么是"神经网络"吗?
基于神经网络作为多学科交叉产物的基础特性可知
目前应用最多的是T.Koholen所提出的概念,其定义为:神经网络是由许多具有适应性简单单元构成复杂结构,具备广泛的并行互联特征,其组织模式可类比于生物神经系统对真实世界物体处理过程中的反应机制
如果我们将人脑神经信息活动的特点与现行冯·诺依曼计算机的工作方式进行对比分析,则能够清晰地发现人脑所具有的显著特征包括:其一为高度并行处理能力。
在冯·诺依曼架构中(...),信息处理采用集中处理、顺序执行的方式(即所有程序指令必须依次送至中央处理器CPU后方能逐条运行)。而在人类识别图像或进行决策时(大脑中的多方面知识与经验会同时并行发挥作用),这些 stored knowledge and experience would integrate and function cooperatively to enable rapid decision-making.
研究表明,在人脑中规模约达10^{10}~10^{11}数量级的神经元存在,并且每个神经元都拥有大约一百多个连接。这不仅提供了强大的储存能力,在必要时刻能够迅速做出判断。
将信息处理与存储单元进行集成,在冯·诺依曼架构中(数据与其地址分离存放)。为了访问数据内容,在确定设备当前所处状态后才能访问特定的数据项。一旦发生硬件故障(all information will be severely damaged),所有数据都将受到影响并被严重损坏.
神经元既具备信息处理能力又拥有存储功能。由于人脑神经元在进行回忆时不仅无需先查找存储地址再调出相关内容,并且能够通过一部分内容恢复全部内容。
当出现硬件故障(如机器受损)时,并非所有存储的数据都无损;反而只有那些受损最为严重的数据仍然无法恢复。这一系统具备自我组织学习机制。
冯·诺依曼机器缺乏自主学习与自我适应功能,并且必须严格遵循预先编写的程序指令进行数值运算或逻辑运算。
而人类大脑凭借内部自组织与自学习的能力不断应对外界环境的变化,并能高效地处理包括模拟性、模糊性或随机性在内的各类问题。神经网络研究的主要发展阶段大致可分为四个时期:1.第一阶段始于20世纪中叶之前。
西班牙解剖学专家Cajal在19世纪末提出了神经元理论。这一理论认为神经元呈现出两极形态:其中细胞体和树突从其他神经元接收冲动;而轴突则负责将信号传递到离细胞体较远的方向。
在随后的时间里出现的各种染色技术和微电极装置持续揭示了神经元的关键特征及其电学特性
1943年份, 美国的心理学者W.S.McCulloch与数学学者W.A.Pitts在其学术论文《神经活动中所蕴含的思想的逻辑运算》中, 创立了基础性的神经元模型, 即M-P模型。
该模型将神经元被视为一个功能逻辑器件来进行处理,则为该模型奠定了理论基础
1949年心理学家D.O.Hebb著《行为的组织》,在其著作中他阐述了神经元之间连接强度变化规律的研究,在此基础之上形成了后来被命名为Hebb学习法则的经典理论框架。
Hebb表示:"当神经元A的轴突足够靠近细胞B并能引发其兴奋时,如果A反复或持续地激发B,那么这两个细胞或其中一个细胞上必然会发生某种生长或代谢过程的变化,这种变化增强了A激活B的能力."
换句话说,在两个神经元均处在一个高度兴奋的状态时,在其之间的突触连接强度将被进一步强化。
五十年代初,在研究神经细胞膜电化学特性时, 科学家Hodykin与数学家Huxley通过模拟膜上的离子迁移行为, 将钠离子通道与钾离子通道的行为分别表示为可变电阻, 进而建立了以他们名字命名的Hodgkin-Huxley方程.
这些先驱者的努力引导了众多学者投身于该领域研究,并为神经计算的发展奠定了基础。第二阶段始于上世纪五十年代中期直至上世纪六十年代末。
在1958年,F.Rosenblatt等人成功开发了历史上第一个具有学习型神经网络特点的模式识别设备,即称为MarkI感知机(Perceptron),这一里程碑式事件标志着神经网络研究进入了第二阶段。
针对仅包含输入层和输出层而无隐藏层的感知机模型,Rosenblatt验证了其一种学习算法的有效性;该学习算法通过不断调整权重参数以实现预期的运算功能。
稍后于Rosenblatt及其合作伙伴B.Widrow等人,在研究领域中开发出一种新型自我学习神经元结构。该结构即称为自适应线性元件(ADALINE),并在此基础上建立了有效的自适应学习机制。这种机制作为训练Adaline的核心算法之一仍然发挥着重要作用。
Widrow还开发了第一台神经计算机硬件,并在六十年代中期投入实际应用并进行相应的软件开发。
除了Rosenblatt和Widrow之外,在这一阶段还有许多人在神经计算的结构与实现思想上做出了重大的贡献。例如说,K.Steinbuch研究了一种称为学习矩阵的二进制联想网络结构及其硬件实现。
N Nilsson在1965年发表了题为《机器学习》的重要著作,在20世纪中期完成了这项开创性研究并进行了详细阐述。经过两个世纪的发展与演进
N Nilsson在1965年发表了题为《机器学习》的重要著作,在20世纪中期完成了这项开创性研究并进行了详细阐述。经过两个世纪的发展与演进
第三阶段开始的标志是1969年M.Minsky和S.Papert所著的《感知机》一书的出版。
该书展开了对单层神经网络的详尽探讨,并通过数学证明揭示了其局限性以及无法解决如"异或"等基本逻辑运算问题。此外,他们还发现存在许多无法通过单层神经网络进行有效训练的情况。关于多层次神经网络的应用前景仍需进一步探究
由于M.Minsky在人工智能领域中的卓越地位,在其著作中提出了令人沮丧的观点给当时神经网络沿感知机方向的研究带来了强烈的打击
在《感知机》一书出版之后,在美国联邦基金长达15年的资助期间未对神经网络研究提供支持,并且前苏联也同样终止了具有发展潜力的研究项目。
然而,在这个低潮时期中,并非完全没有研究者致力于神经网络的研究工作。例如,在美国波士顿大学有S.Grossberg教授,在芬兰赫尔辛基技术大学有T.Kohonen教授,在日本东京大学有甘利俊一教授等。
他们的不懈努力为神经网络研究的复兴铺平了道路。
4.第四阶段自1980年代初以来
1982年时,美国加州理工学院的生物物理学家J.J.Hopfield成功地采用了全互连型神经网络模型.他基于所定义的计算能量函数,有效地解决了计算复杂度为NP完全型的旅行商问题(TravellingSalesmanProblem,简称TSP).
这项突破性进展标志着神经网络方面的研究处于第四发展阶段,并且正朝着蓬勃发展状态迈进。Hopfield模型提出后,众多研究者致力于将其扩展,使其更加贴近人脑的功能特性。
1983年,T.Sejnowski和G.Hinton创立了"隐单元"的概念,并开发出了Boltzmann机.
日本的福岛邦房基于Rosenblatt提出的感知机模型,在此基础上引入了隐藏层神经元以开发出具备联想学习能力的认知机系统。Kohonen通过精心设计和应用3000个阈值器件成功构建了二维网格型联想学习体系。
1986年, D.Rumelhart与J.McClelland发表了具有里程碑意义的重要著作《并行分布处理-认知微观结构探索》,这一事件标志着神经网络研究领域的重大突破
1987年,在圣地亚哥举行的首届国际神经网络大会由国际神经网络联合会(INNS)正式成立
随后,INNS成功创办了学术期刊《JournalNeuralNetworks》,此外,包括《NeuralComputation》、《IEEETransactionsonNeuralNetworks》以及《InternationalJournalofNeuralSystems》等在内的多本专业学术期刊相继成立。这些期刊不仅成为神经网络领域的重要学术平台,并在国际上产生了广泛影响。
众多顶尖学府纷纷设立神经计算研究所,并规划相关的教学安排。许多国家纷纷建立了神经网络协会,在国内外举办了多种形式的地区性和国际性会议。洋溢着杰出著作与重大研究成果
今天,在经过多年的研究积累与探索期间之后,“神经网络的研究工作已进入决定性阶段。” 日本、美国及西欧各国都制定了相关研究规划。日本推出了一个"人类前沿科学计划"。
该计划持续时间为15至20年,在此期间最初投资额就达到了1万亿日元以上。在本计划中对神经网络与脑功能的研究具有重要比重,并且因为'人类前沿科学'首要领域即与人类大脑研究相关,并致力于开发基于借鉴人脑原理的新一代计算机技术。
在美国获得了军事方面的坚定支持。美国国防部斥资4亿美元,并根据DARPA制定了为期8年的研究规划,并设立了相应的组织与指导小组。
同时
这些美国政府机构如NSF和NASA都给予了神经网络发展高度关注。这些机构通过多样化的方式资助了许多研究项目。与此同时,欧洲经济共同体也制定了相应的研发计划。
在该ESPRIT计划中,有一个项目是'神经网络技术在欧洲工业中的应用';除了英国和德国的主要原子能机构外,还有多家欧洲大型企业加入这一研究项目
此外,在欧洲的一些国家和地区也设有各自的科研项目规划体系。例如德国于1988年开始实施了一个名为"神经信息论"(Neuroinformatics)的研究计划。我国则自1986年以来陆续组织了多次非形式的神经网络学术研讨会
1990年12月,在中国计算机学会、电子学会、人工智能学会、自动化学会、通信学会、物理学会、生物物理学会和心理学会等八个学会的共同推动下,在北京成功举行了"中国神经网络首届学术会议"。这一会议的召开标志着我国神经网络研究迈入了一个全新的发展阶段
人工神经网络,人工神经网络是什么意思
。
一、人工神经网络的概念人工神经网络(ArtificialNeuralNetwork, ANN)简称神经网络(NN),其理论基础来源于生物学中对神经网络基本原理的研究,并在此基础上分析与归纳人类大脑结构特征及对外界刺激反应规律的基础上运用了拓扑学的知识体系作为一种数学模型
该模型以其并行处理能力和高容错性等特性著称,并整合了信息处理与存储的能力;其独特的知识表达形式以及自主学习机制使其引起了各领域学者的关注。
它本质上是由众多简单的组件相互连接而形成的复杂系统,并且表现出高度非线性特征。这个系统能够执行复杂的逻辑运算以及处理非线性关系。神经网络是一种运算体系,并且由大量节点通过相互连接构成。
每个节点代表一种特定的输出函数,称为激活函数(activationfunction)。
每个节点之间的连接都对应着通过该连接传递过来的一个加权值,并被称为权重(weight)。神经网络是一种能够模仿人类记忆机制的方式。其输出结果则会受到网络结构、连接模式以及权重与激活函数等因素的影响。
而网络常见地是对自然界某种算法或函数的逼近;也可能是一种逻辑策略的表现。
神经网络的架构理念主要由生物神经网络运作机制引导形成。
人工神经网络主要是通过将对生物神经网络的认识与数学统计模型相结合,并利用数学统计工具来进行
从人工智能感知领域来看,在人工智能感知领域中
人工神经网络中,在神经元处理单元上能够代表多种具体元素如特征、字母、概念等,并非局限于单一含义。这些处理单元被划分为三类即输入层节点、输出层节点以及隐藏层节点。
输入端接收外部世界的信号与数据。
输出端负责将系统的处理结果传递出去。
中间层位于输入层和输出层之间,并不可见于系统外部。
神经元之间的相互影响程度体现在各单元之间的联结强度上;而信息的形式化表达与处理过程则体现在各处理单元之间的相互作用机制上
人工神经网络是一种无固定程序、具有适应性且生物 inspired的信息处理系统。其本质是被网络结构的动态行为所实现的一种并行分布式信息处理机制,并在不同层次和程度上模拟人类大脑神经系统的功能。
神经网络是一种基于类比于生物体神经突触连接模式构建起来的信息处理数学架构。它能够模仿人类在认知自身脑部构造与思维运行规律基础上发展起来的一种技术。这种交叉学科的技术融合了包括神经科学、数学、思维科学等多个领域的知识体系,并广泛应用于人工智能及工程科技领域。
二、人工神经网络的发展 神经网络的发展经历了悠久的历史进程。其发展历程主要包含以下四个方面的内容。
第一阶段----启蒙时期(1)、M-P神经网络模型:人类开始研究神经网络是在上世纪四十年代初。
在1943年, 美国心理学家麦卡伦奇与数学家皮兹提出了著名的M-P 模型. 这一模型相对简单但具有重要意义.
在模型中,在构建算法时将神经元被看作一个功能逻辑器件,并由此奠定了神经网络模型理论研究的基础
Hebbian规则:心理学家Herb于1949年出版了《TheOrganizationofBehavior》(行为组织学)。在其著作中首次提出神经元间突触连接强度可变的概念。
该假设认为学习过程最终发生在神经元之间的突触部位,并且突触连接强度会受到突触前后神经元活动的影响。随着研究的发展,这一假说逐渐演变为现代神经网络中的一个重要理论基础——Hebb规则。
这一法则是神经科学领域的重要理论发现之一,在研究神经系统中起着关键作用。它揭示了神经元之间突触联系强度是可以调节变化的动态特性,并且这种动态特性对于实现学习与记忆功能至关重要。此外,在构建人工神经网络模型的过程中,Hebbian规则构成了建立能够执行学习任务的人工神经网络模型的基本框架。
(3)、感知器模型于1957年被罗森勃拉特(Rosenblatt)基于M-P网络所发展出一种新型的人工神经网络系统
感知器模型遵循现代神经网络的基本原则,并且其结构高度契合基于生物神经系统的组织模式。
该系统采用连续可调权值矢量构建的MP神经网络模型,在经过特定训练后能够实现对给定输入矢量模式的分类与识别目标。尽管其结构相对简单, 但它是首个真正意义上的神经网络体系。
Rosenblatt表明两层神经网络具备将输入数据分类的能力,并且他开创性地提出了一种包含三层结构并带有隐藏处理单元的人工神经网络体系。
Rosenblatt提出的神经网络模型将这些基础原理有机地融合进去,并推动了神经网络方法与技术的重大突破。
4)、ADALINE网络模型:1959年份,在美国工程师威德罗(B.Widrow)和霍夫(M.Hoff)等人的共同努力下,自适应线性元件(Adaline)和Widrow-Hoff学习规则被成功开发出来,并被成功实现于工程实践中以解决实际问题。该方法作为人工神经网络领域的重要里程碑,在解决实际问题方面发挥了显著作用并推动了神经网络研究的发展进程。
以ADALINE命名的网络体系是一种能够输出连续值的线性神经元网络模型,并适用于自适应系统设计
Minsky和Papert在这一阶段对感知器等网络系统进行了系统分析,并于1969年出版了《Perceptrons》,明确指出传统线性模型在处理线性不可分两类样本时的局限性,并未能实现异或逻辑关系等基本任务。
这一重要观点对当时的人工神经元网络研究造成了深远的影响。这标志着神经网络发展历史中出现了一段长期停滞不前的时期。
(1) 基于自组织特征映射的神经网络模型于1972年首次由芬兰学者T. Kohonen开创性地提出
后来发展起来的神经网络主要依据KohonenT.的研究成果而发展。SOM是一种无监督学习型神经网络,并用于模式识别、语音识别以及分类任务。
它运用一种"胜者为王"的竞争学习算法与先前提出的感知器存在本质区别,并且其学习训练方式为无需指导的自组织学习
这种学习训练方式常见于在没有明确知道存在哪些分类类型的情况下,用于提取分类信息的一种训练
(2)、自适应共振理论 ART:在 1976 年时, 美国 Grossberg 教授创立了经典的自适应共振理论 ART (AdaptiveResonanceTheory), 其学习过程具备自主组织与自我稳定的特点。
3.第三个阶段----复兴时期(1)、Hopfield模型:1982年,《Neural Networks》期刊上发表的一篇具有里程碑意义的研究论文中首次提出了基于离散型人工神经网络系统(Discrete Hopfield Network)的理论框架;该研究对神经网络领域的发展产生了重要影响
在研究领域中首次引入了李雅普诺夫(Lyapunov)函数这一关键工具,在之后的研究中也被广泛应用于相关领域。随后的研究者普遍采用了这一术语,并将其命名为能量函数后被广泛采用。通过理论分析和实验验证成功证明了该网络体系的稳定性
1984年,Hopfield提出了另一种连续神经网络,并实现了将网络中神经元的激活函数从离散形式转换为连续形式的方法。
在1985年期间, Hopfield与 Tank团队开发出了基于 Hopfield 神经网络的解决方案来应对 著名的旅行推销商 问题. Hopfield 神经网络由一系列非线性的微分方程构成.
Hopfield模型构建了非线性数学模型以描述人工神经网络的信息存储与提取机制,并制定了动态学方程体系及相应的学习规则。进一步提供了关键的算法公式与参数设定。为人工神经网络的设计与训练提供了理论依据。基于Hopfield模型框架下由此激发了许多学者投身于神经网络研究领域,并投身于这一前沿领域的研究工作。
由于Hopfield神经网络展现出巨大的应用前景,并因此受到了研究人员的广泛关注,在这一领域内不断有新的研究者投身其中,在此基础上使得该领域得到了显著的发展
由于Hopfield神经网络展现出巨大的应用前景,并因此受到了研究人员的广泛关注,在这一领域内不断有新的研究者投身其中,在此基础上使得该领域得到了显著的发展
(2)、Boltzmann机模型:该算法在1983年被Kirkpatrick等人意识到可用于解决NP完全组合优化问题;最初由 Metropli 等人于 1953 年提出。
在1984年期间,Hinton及其年轻的同行Sejnowski等人共同开发了一种称为大规模并行网络的学习系统,他们首次提出隐单元的概念,这种学习机制随后被命名为Boltzmann机器
Hinton and Sejnowsky based their initial proposal of the learning algorithm for multilayer networks on the concepts and methods of statistical physics, which is referred to as the Boltzmann machine model.
(3)、BP型神经网络模型:1986年,在多层神经网络模型的基础上,Rumelart等学者提出了一种基于反向传播算法的权值修正方法——BP算法(Error Back-Propagation),从而解决了传统多层前向神经网络的学习难题, 并且展现了强大的学习能力, 它不仅能够完成复杂的分类与回归任务, 在模式识别、自然语言处理等多个领域都展现出显著的应用价值。
(4)、并行分布式处理理论是1986年推出的一项重要成果。该研究由Rumelhart及McClelland合著,并参考了Healy等学者的研究成果,在书中他们构建了并行分布式处理理论模型,在此基础上着重探讨认知机制的基本组成要素及其相互作用模式。对于非线性连续转移函数的特点,在多层前馈网络中应用误差反向传播算法(即BP算法)进行了深入研究。这一突破性研究成功地解决了传统权值调整方法缺乏高效性的关键问题。
能够克服感知机无法解决的问题,并解答了《Perceptrons》一书中关于人工神经网络局限性问题,在实践中证明了人工神经网络拥有较强的计算能力和数据处理能力。
细胞神经网络模型:1988年,在Chua及Yang等人提出的基础上发展起来的CNN模型是一种基于细胞自动机的大规模非线性计算机仿真系统
Kosko提出了一种称为BAM的双层联锁存储系统,并指出该系统具备无需教师指导的学习机制。(6)、Darwinism模型:Edelman提出了一种基于神经网络的适应性系统理论,在20世纪90年代初期对现代神经网络研究领域的发展产生了深远的影响。
1988年左右, Linsker在其研究中提出了一种新的自组织理论模型,并在此基础上构建了最大互信息理论模型,从而为神经网络的信息应用理论奠定了重要基础
1988年, Broomhead 和 Lowe 基于径向基函数(Radialbasisfunction,RBF)的方法发展出分层网络设计体系, 从而实现了神经网络设计与数值分析以及线性自适应滤波领域的紧密关联
在1991年时,Haken将其协同理论整合到神经网络领域,并基于其理论框架提出观点:他认为认知过程具有自发性,并认为模式识别即为模式形成的过程。
(10)、在1994年, 廖晓昕基于细胞神经网络构建了其数学理论基础, 这标志着这一领域的进一步发展.
通过扩展激活函数类的方法,我们提出了一个更具一般性的时滞细胞神经网络(DCN)、Hopfield神经网络(HNN)以及双向联想记忆网络(BAM)的模型.
在20世纪90年代初期,Vapnik及其团队提出了支持向量机(SVM)以及VC维数的概念。
经过多年的发展,已有上百种的神经网络模型被提出。
人工智能的起源是什么?
Artificial Intelligence(AI) 是一门综合性的新学科 主要由 计算机科学 控制论 信息论 语言学 神经生理学 心理学 数学哲学等学科相互渗透而逐渐发展形成。
从创立至今,人工智能经历了诸多挫折与挑战,在经过不断的发展和完善后被公认为一门新兴边缘学科而逐渐引起了人们的广泛关注。
除了众多其他学科外,其专家系统、自然语言处理以及图像识别已成为新兴的知识产业的主要突破方向。
人工智能的思想起源可追溯至17世纪的布莱斯·帕斯卡与戈特弗里德·莱布尼茨时期,在那时他们便构想出具有智能功能的机器。在19世纪时,在英国数学家乔治·布尔与奥古斯都·德摩根提出"思维规律"的时候(即现代计算机科学的基础),这标志着人工智能领域的开端。
在十九世纪twenty年代期间, 英国科学家查尔斯·巴贝奇发明了一台世界上first自动化分析机. 这台机械装置被视为modern computer hardware的重要先驱, 并且也被普遍认为是artificial intelligence hardware发展的基础. 随着electronic computer的出现使得artificial intelligence研究真正取得了breakthrough性的进展.
作为一门学科的人工智能被视为于1956年诞生(或创立),由McCarthy及其一揽子学者在Dartmouth大学召开的会议上共同开创。
对人工智能的研究基于不同的研究视角而有所发展。具体包括符号主义、连接主义以及行为主义等。
古典人工智能领域主要遵循符号论原则,这一学说起源于Newell与Simon所提出的物理符号系统假设。
由一套物理模式构成,并且这些模式在特定位置上扮演着基础角色;这些模式可以通过一系列操作能够形成其他形式的物理模式;基于假设的观点指出这些模式是智能行为的充要条件
核心职能是"通用问题求解系统"(GPS):通过抽象思维过程将现实系统转化为符号系统,在此基础上采用动态搜索方法来解决问题。
连接主义学派基于人的大脑神经系统结构展开探讨,在研究非算法式的、适应性特征的同时关注信息本质及其功能。该学派还研究大量简单的神经单元群的信息处理动态行为,并将其称为神经计算。
研究的重点则聚焦于模仿人类认知过程中的感觉体验、知觉形成以及形象思维的发展,并包含分布式记忆系统和自学习机制等。行为主义学派则基于行为心理学理论主张,在与环境不断互动的过程中展现智能的本质。
人工智能的研究经历了几个发展阶段:初步发展时期:20世纪50年代人工智能概念的提出及其随后的发展与停滞阶段:如机器定理证明系统等技术的发展、计算机下的跳棋程序设计以及通用问题S求解程序的应用研究等重要成果的技术积累
由于消解法的推理效能受到限制,并且机器翻译等技术存在局限性而导致人工智能发展陷入瓶颈期;这一阶段的主要特征在于过分关注具体问题解决方法而忽视了知识体系的重要地位
第二阶段:20世纪60年代末至70年代初,在这一时期出现了众多专家系统(如DENDRAL化学质谱分析系统、MYCIN疾病诊断和治疗系统、PROSPECTIOR探矿系统以及Hearsay-II语音理解系统等),它们的成功应用标志着人工智能研究进入了一个全新的发展阶段
并且,在1969年该组织被创立了(简称IJCAI)。
第三阶段:在20世纪80年代期间,在第五代计算机的研发推动下,人工智能取得了显著进展。日本于1982年启动了"第五代计算机研制计划"(即"知识信息处理计算机系统KIPS"),其目标是实现逻辑推理速度与数值运算相当。
尽管这场计划最终未能成功实施,但它所展开的过程却意外地激发了研究人工智能的热情
此后,各国在神经网络方面的投资逐渐增加,神经网络迅速发展起来。
第五阶段:20世纪90年代末期引入了一个全新的研究热点,在这一时期中的人工智能研究逐渐聚焦于基于互联网环境下的分布式人工智能体系构建与应用探索。随着互联网技术尤其是国际互联技术的发展推动,在这一阶段内的人工智能研究重点逐步转移至基于网络环境下开展的分布式人工智能领域
不仅涉及围绕同一目标展开分布式问题求解的研究领域扩展,
还延伸至涵盖多个智能主体进行多目标问题求解的情形,
从而推动人工智能的应用更加贴近实际需求。
随着Hopfield型多层神经网络模型的提出,
人工神经网络的研究与应用呈现出蓬勃发展的态势。
人工智能已深入到社会生活的各个领域。
IBM公司的'深蓝'电脑战胜了全球顶尖的国际象棋世界冠军;美国规划了一个以多Agent系统应用为核心的研究重点的'信息高速公路'计划;利用Agent技术开发的Softbot在软件领域以及网络搜索引擎方面得到了广泛的应用;与此同时,在全球范围内最大的虚拟现实实验室——美国Sandia实验室已建立;拟通过结合数据手套与数据输入设备来实现人机互动的更加友好界面,并构建更为智能的人机交互系统。
图像处理与图像识别技术以及声音处理与声音识别技术均获得了长足的进步。IBM公司成功开发了ViaVoice语音识别软件,并旨在通过开发该软件来提升语音作为重要信息输入媒介的地位。全球各大计算机公司纷纷将人工智能列为研究重点,并将其作为核心关注领域进行深入探索和发展。
社会普遍认为,在计算机领域将趋向于形成网络化、智能化以及并行化的生态系统。在21世纪信息技术领域中,智能信息处理将构成其中的核心内容。
目前人工智能的主要研究方向包括分布式的AI体系及多主体交互模式、认知模拟模型以及多层次的知识体系架构(包含专家系统网络化平台和智能化决策支持系统等关键模块)、基于复杂数据环境的知识提取技术(能够从海量杂乱的数据中提炼出具有实用价值的知识信息)、仿生进化学科领域的基础理论探索(通过生物进化机制模拟来分析人类智力演化的内在规律)、元生生命体的设计实验研究(通过构建简单的人工生命体来观察其行为特征以揭示初级智能形成的基本规律)以及智能化应用系统的开发创新(涵盖模糊控制技术的应用场景分析、智能化建筑系统的规划设计思路等具体实践领域)。
人工智能研究与应用经历了长足的发展,尽管取得了一定的成就,但仍有许多待提升之处
未来人工智能的主要研究方向涵盖:人工智能基础理论、基于机器学习的知识体系、不精确性知识的表示与推理机制、常规知识体系下的推理逻辑以及认知计算模型等多个维度;其核心还包括智能化的人机交互界面设计、多主体智能系统协调控制以及基于数据的知识挖掘与信息提取技术;同时对相关技术及应用实践的基础研究也持重视态度
Hopfield神经网络
。
Hopfield神经网络(HopfieldNeuralNetwork,简称HNN)是由美国加州理工学院物理学家J.J. Hopfield于1982年在加州理工学院建立的一种反馈型人工神经网络模型。该网络通过建立一个由多个相互连接的简单处理单元组成的系统来模拟生物神经系统的工作机制。该模型不仅单向传输到下一个神经元层(即输出信号),而且还能反向传递至上一层神经元(成为输入信号)。
而前面所述的BP网络是一种前馈型神经网络,在信号传递上实现了从前向后的单向信息流动。他成功地提出了Hopfield神经网络中的“能量函数”概念,并因此使得对神经网络稳定性分析的研究更具系统性。
Hopfield神经网络的权值并非通过反复学习获得,而是依据特定规则计算得出,一旦确定就不会更改.而Hopfield神经网络的状态(输入输出信号)则会在运行过程中持续变化,当网络达到稳定状态时各神经元的状态即为问题的答案.
于1985年,“Hopfield和Tank”研发了一种模拟Hopfield网络的电子线路,并成功地解决了优化组合问题中的著名TSP(旅行商)问题。他们提出了一种寻找接近最优解的方法,并为此领域的发展奠定了重要基础。
在地球物理反演这种最优化问题中,Hopfield网络能够方便地实现这一类问题的求解。
该反演过程的目标函数与Hopfield网络的能量函数相等;其中网络的状态(输入信号与输出信号)即为模型参数;当网络达到平衡状态时,各神经元处的输入输出值即为该反演问题的解。
Hopfield神经网络包括离散形式和连续形式两种主要类型,在学术文献中通常分别表示为DHNN(Discrete Hopfield Neural Network)和CHNN(Continuous Hopfield Neural Network)。
在前馈型网络中不论是离散还是连续的情况通常不考虑输入与输出之间的时差 并仅描述输入到输出的映射关系
但在连续Hopfield神经网络中,在考虑到输出与输入之间的延迟因素的情况下,则必须使用微分方程或差分方程来描述网络的动态数学模型
8.5.4.1 离散Hopfield神经网络 discrete Hopfield neural network的topological structure topological structure illustrated in Figure 8.12所示 contains n neural units
图8.12的特性是在每个神经元i的情况下,其输出xi仅取值于0和1之间,并且所有的神经元j都会接收来自该神经元i的信号
换句话说,在人工神经网络中每个神经元都通过连接权接收并综合来自其他神经元输出反馈的信息 这种机制使得每一个神经元的输出结果都受到其他所有神经元输出的影响 从而形成了各层神经元之间的相互制约关系 每个神经元均设置一个阈值Ti 以此来调节对输入噪声信号的敏感度
图8-12展示了离散Hopfield神经网络的拓扑架构[8]5.4.4.1.1。任何单个神经元的输出变量xj被视为该网络的状态变量,并且其取值范围仅限于0和1两种可能性。
变化规律可由以下公式表达:x_j = f(net_j),其中 j = 1, 2, …, n (8.33)。f() 表示激活函数,在离散 Hopfield 神经网络中通常使用符号函数作为转移函数:地球物理反演教程其中 net_j 代表第 j 个神经元的净输入(8.34)。对于离散 Hopfield 神经网络而言:地球物理反演教程通常满足条件 w_{ij} = 0 和 w_{ij} = w_{ji} (8.36),这表明各神经元之间不存在自反馈连接且相互连接具有对称性。
离散Hopfield神经网络稳定时,每个神经元的状态都不再改变。
此时系统的稳定状态即为网络输出的结果,并将其定义为地球物理反演教程8.5.4.1.2中的数值序列所对应的网络异步工作模式。这种工作模式属于串行处理类型,在每次运行周期中仅更新单个神经元的状态信息;其余所有神经元的状态均维持不变。
8.5.4.1.3 网络的同步工作方式该一种并行同步方式下,所有神经元同时调整状态;8.5.].].].].].].].].].] 网络的吸引子当网络处于稳定状态下,其输出X被定义为该网络对应的吸引子。
8.5.4.1.5 网络的能量函数 网络的能量函数定义为地球物理反演教程中所以上述矩阵形式,在不考虑自反馈的情况下具体展开形式为地球物理反演教程当网络达到平衡状态时有ΔE(t)=E(t+1)-E(t)=0(8.40)或者地球物理反演教程基于此理论研究表明[8]:定理1 对于异步DH神经网络若权重矩阵W是对称矩阵则无论初始状态如何网络总能收敛至一个吸引子。
定理2. 在DHNN中,在采用同步更新策略的情况下,在连接权矩阵W为非负定对称阵时,则无论初始状态如何变化,网络的状态必将在有限步后达到某个吸引子。
在地球物理线性反演中采用离散Hopfield神经网络进行反演运算时,默认情况下会建立以下目标函数:通过比较式(8.38)与式(8.42),我们发现它们在形式上有许多相似之处。
王家映的《地球物理反演理论》一书中,直接用式(8.42)和式(8.38)类比,公式显得复杂。
本书引入了一个新的目标函数Φ, 该公式将变得更加简洁:通过对比式(8.38)与式(8.43),经比较后发现两式完全一致, 只需令X(t)=m, W= GTG, T= GTd (8.44).特别地,在此设定下(即使用式(8.43)),其极大值解对应于原始问题中的极小值解, 这两组方程实际上是等价的。
如果被反演的模型参数是分立的0或1值,则可直接使用离散Hopfield神经网络实现反演过程。
通常情况下,这些参数都是连续数值。因此需要将模型参数表示成二进制形式[1]:其中Bij=0或1代表二进制位;而D和U则为整数,在一定程度上反映了模型参数的规模与精度。
为了简洁起见,在这种情况下,我们采用Bij来表示第i个模型参数,并将其定义为二进制数的形式。在计算过程中,请将式(8.45)代入目标函数中的式(8.43),并在对比离散Hopfield神经网络的能量函数时,在建立新的对应关系之后,则可以顺利地完成反向推导过程。
这一项新型的等价关系式可以在王家映所著的《地球物理反演理论》[1]中找到详细阐述。具体步骤包括:(1)设定D和U的具体数值范围,并根据模型参数的精度确定其大小;(2)将原始模型参数转换为二进制形式以便后续计算。
确定一个拟合精度指标(例如相对均方差ε),并设定最大的迭代次数为N(每次迭代指所有神经元输出被更新一次)。(2) 基于数据方程构造的G矩阵(其中,在通常情况下需要通过求取偏导数矩阵来确定)用于计算网络中的权值和阈值参数。
(3)将二进制初始模型参数注入网络,并启动网络的运行流程。(4)每一次迭代时, 将当前迭代得到的网络输出值转换为对应的十进制模型参数, 执行正向计算过程以验证结果的一致性. 当计算结果与预期值之间的误差小于等于ε时, 则终止网络的运行, 并输出反演所得的结果.
否则重复(2)~(4)步直到满足精度或达到最多迭代次数N为止。
在一般情况下,在地球物理数据方程中构造G矩阵是无法以解析表达式直接表示的。相反地,则需要通过计算偏导数矩阵来获得这一矩阵,并且该矩阵的具体形式取决于输入参数的变化情况。因此,在每一次迭代过程中都需要重新计算新的偏导数矩阵。由于这一过程涉及大量的计算步骤且耗时且复杂,在实际应用中常面临较大的运算负荷。因此他的反演过程与经典的最小二乘法具有相似性
此外,在利用Hopfield神经网络进行反演的过程中可能会遇到容易陷入局部极值点(吸引子)的情况。进而受到起始模型的影响,在保证反演结果准确性的同时为了确保起始模型尽可能接近真实模型而采取相应措施
8.5.4.2连续Hopfield神经网络(CHNN)[8]在1984年之前建立,并非由Hopfield将其发展为连续型的神经网络
然而,在CHNN中所有神经元均实现了同步运作;其输入输出量均为时间可变且连续性的模拟数据。由此可见,在信息处理效率上以及对并行性和实时性的追求方面,CHNN更能体现与真实生物神经系统相似的特点。由此可见,在地球物理反演这一领域应用CHNN相比DHNN更具优势。
CHNN可以被常系数微分方程所表示;另一方面,在模拟电子电路的基础上进行建模,则具有形象直观的表现形式,并有助于理解系统的动态行为。图8.13为连续Hopfield神经网络的拓扑结构[8]。
图8.13展示了连续Hopfield神经网络的拓扑结构[8]。在图8.13中,每一个神经元被一个运算放大器进行模拟;其输入与输出信号则分别以运算放大器的输入电压和输出电压的形式表示;而各神经元之间的相互作用则通过电导参数来实现。
每个放大器均设有正向输出与反向输出两种类型,分别对应兴奋性活动与抑制性活动.每个神经元则配备一个用于调节阈值的关键参数,即外界输入偏置电流.此处略去详细说明以节省篇幅.感兴趣的读者可进一步查阅相关文献以获取更多信息.
