Advertisement

对神经网络的简单理解,简述什么是神经网络

阅读量:

神经网络(深度学习)的几个基础概念

在广义意义上而言,深度学习中的网络架构也属于多类多层级神经网络的一种类型.就传统定义而言,多层级神经网路仅包含输入层级,中间层级以及输出层级三个层次.其中关于中间层级的数量设定主要依据实际需求进行调整.目前尚缺乏系统性的理论分析来确定合适的层数标准.

在深度学习领域中,卷积神经网络(CNN)被视为经典代表之一,在早期多层神经网络的基础上发展出包含特征学习功能的部分,并模拟了人类大脑对信号处理的层次式的结构。

具体做法就是在原有全连接层的基础上增加了局部连接卷积降维结构,并且这一结构属于一个层级。

输入层级-卷积模块-降维模块-卷积模块-降维模块... ... 隐藏层级-输出层级简而言之,传统多层神经网络执行的过程是:通过人工选择的特征进行数值映射.而深度学习则遵循信号→特征→值的流程.

特征是由网络自己选择。

谷歌人工智能写作项目:神经网络伪原创

神经网络是什么?

涉及两种不同的类型:其一是生物神经网络(通常指的是大脑神经系统中的神经系统元胞、细胞体及突触等组成的系统),其二是人工神经网络(如本例中的**文案狗**)。其中关于生物神经网络的定义为:它通常指的是大脑神经系统中各种神经系统元胞(包括细胞体)、细胞体及突触等共同作用形成的系统性结构体系。这种系统主要负责产生意识功能,并在感知信息的同时协助完成思考与行为控制等功能。

人工神经网络(Artificial Neural Networks, 缩写为ANNs)也可被称为神经网络(NNs),亦即所谓的连接模型(Connection Model)。这种算法数学模型旨在模仿动物神经网络的行为特征,并实现分布式并行的信息处理功能。

这种网络基于系统的复杂程度进行设计,并通过调节内部大量节点之间的连接关系来实现信息处理的目标。人工神经网络是一种模拟大脑神经元突触联接结构的数学模型。

在工程与学术界也常直接简称为“神经网络”或类神经网络。

什么叫神经网络?

南搞小孩阐述了几个基础概念: 一、几个基础概念的问题。他的问题包括: [1] 神经网络是什么? [2] 思维有两种不同的方式:一种是具有逻辑性的;另一种是具有直观性的。

逻辑性的思维是指依据逻辑规律进行推演的行为;它指将信息转化为概念并以符号形式体现的同时又能够通过符号运算按照顺序模式完成逻辑演算;这个流程可编写为顺序排列的指令序列并由计算机依次处理

然而,在整合分散存储的信息之后,则会导致忽然间产生想法或找到解决问题的办法。

这种思维方式的核心在于以下两个方面:一是信息是以神经元兴奋模式的空间分布形式储存在人工神经网络中;二是信息处理主要依赖于不同神经元之间协同作用所形成的动态过程。与传统的电子计算机不同的人工智能系统,在模拟人类思维方式时采用了不同的方法论基础。

属于非线性动力学领域的一个系统,在其运行机制中主要体现在信息以分布式的方式存储以及各部分单元之间协同处理的能力上。
尽管单个神经元的结构简单至极、功能相对有限,
然而由大量神经元组成的网络系统却能够表现出极为丰富多样的行为特征。

[人工神经网络的运行机制] 该系统需遵循特定的学习标准进行训练后方能正常运转。

现以人工神经网络对字符“A”、“B”进行识别测试为例进行说明,并规定当输入字符为“A”时应输出数值1,而当输入数据为字符“B”时则输出数值0。

因此,在设计网络学习准则时(即确定标准时),应该确保当出现错误判断(即误判)时(即出现误判的情况下),通过学习机制使其减少未来再次犯同样类型问题的可能性(即降低再次出现类似问题的能力)。

第一步是将各连接的权值设定为(0,1)区间内的随机数值;然后将"A"所对应的图像模式输入到网络中;接着计算该输入的所有加权总和,并将其与阈值进行比较;最后通过非线性运算得到网络的输出结果。

在这种情况下,在线性神经元模型中两种可能的输出结果出现的概率均等,并且这表明结果完全是随机的。此时若输出结果是'1'(即正确),则可使相关连接权重得到增强。从而确保当输入呈现'A'模式时网络仍能准确识别。

若输出数值为零(表示系统出现错误),则将神经网络的连接权重朝向减少综合输入加权总和的方向进行调节。其主要目的则是为了使当再次遇到'A'模式输入时,系统能够减少产生同样错误的风险。

此轮进行相应的调整操作,在连续不断地向网络中输入多个手写字样本字母A和B的情况下,在经过让网络反复运用上述学习方法进行多次训练的过程中,则其准确识别率会有明显提升。

一项研究表明,在此过程中系统不仅涉及两个特定输入模式的学习,并且还取得了显著成果。研究结果表明这些模式以分布的方式存储于各连接权值中。此外,在识别到任一特定输入模式时系统能够迅速而准确地执行分类过程并完成相应的响应行为

通常情况下,在一个网络中神经元数目越多,则其能够记忆和识别的模式类型也会随之增加。

在南搞小孩这个平台上开发的一个小程序用于人工神经网络模拟与研究。该软件名为人工神经网络实验系统(BP网络)V1.0版本具有Beta特性由沈琦先生开发并进行了功能介绍:运行后观察到前3条'学习'指令执行后发现输出层神经元趋于稳定状态其收敛值为0.515974。

而后三条'学习'指令收敛于数值P_{Out} = 0.52\, ⁰₅₁。观察处理编号为4和\mathbf{⑪}号指令的结果:\mathbf{P} \cdot Out_₁ = ⁰·₅₂₀₀₅₁请注意发现:系统识别出编号为4和\mathbf{⑪}号指令属于第二类行为特征!

怎么样?很神奇吧?再打show指令看看吧!"神经网络"已经形成了!你可以自己任意的设"模式"让这个"大脑"学习分辩哦!只要样本数据量充分(可含有误差的样本),如果能够在out数据上收敛地话,那它就能分辨地很准哦!有时不是绝对精确,因为它具有"模糊处理"的特性.看Process输出的值接近哪个Learning的值就是"大脑"作出的"模糊性"判别! 南搞小孩神经网络研究社区: 人工神经网络论坛 (旧版,枫舞推荐) 国际神经网络学会(INNS)(英文) 欧洲神经网络学会(ENNS)(英文) 亚太神经网络学会(APNNA)(英文) 日本神经网络学会(JNNS)(日文) 国际电气工程师协会神经网络分会 研学论坛神经网络 ;sty=1&age=0 人工智能研究者俱乐部 2nsoft人工神经网络中文站 =南搞小孩推荐部分书籍: 人工神经网络技术入门讲稿(PDF) 神经网络FAQ(英文) 数字神经网络系统(电子图书) 神经网络导论(英文) =南搞小孩还找到一份很有参考价值的讲座 是Powerpoint文件,比较大,如果网速不够最好用鼠标右键下载另存. 南搞小孩添言:很久之前,枫舞梦想智能机器人从自己手中诞生,SO在学专业的时候也有往这方面发展...考研的时候亦是朝着人工智能的方向发展..但是很不幸的是枫舞考研失败 只好放弃这个美好的愿望,为生活奔波.希望你能够成为一个好的智能计算机工程师..枫舞已经努力的在给你提供条件资源哦~~。

什么叫神经网络?

枫舞阐述了若干基础概念:一、几个基础概念及原理:关于"什么是神经网络"的问题;二、人类的思维方式呈现出逻辑性和直觉性的两大主要特征。

逻辑思维即为遵循逻辑规律来进行推理的过程;信息被转化为概念,并以符号形式表达;随后会依照符号运算按照串行模式来进行推理;这一流程可被编码为一系列的指令,并由计算机执行。

然而,在分布式存储的信息中进行整合后会导致直观性思维的形成。

其核心在于以下两点:第一条, 信息存储在神经系统中的各个神经元上是以它们兴奋模式的变化体现出来的;第二条, 而信息处理则是由神经系统中各神经元之间的协同活动所实现的。另外一种模拟人类思维模式的方法就是人工神经网络

属于非线性动力学领域的一个系统,在其独特之处主要体现在信息以分布式形式存储以及通过并行协同进行处理的能力上。尽管单个神经元的构造相对简单,在功能上也较为有限层见叠出的现象与行为却能由由大量神经元组成的网络系统所展现出来

人工神经网络在经过基于特定的学习标准进行训练后才能开始工作,并进而完成任务。

设定为特定的条件或规则下,在输入字符“A”时应返回值1;而对于字符“B”的输入,则返回值0。

所以网络学习的标准应该是:如果网络作出错误判断,则通过网络的学习过程, 从而使得网络在下次犯同样错误的可能性得到减少。

首先,在该神经网络中为各个连接赋予(0,1)区间内的随机权重值;然后将由"A"代表的图像模式输入至该网络中;接着该神经网络会对输入图像应用加权求和操作,并与预设门限值进行比较;随后执行非线性运算以生成输出结果。

在此情况下,在线输出结果为1或0的概率均等(各占50%),这表明整个过程完全是随机的。当输出结果正确(即产生1)时,则会使得相关的连接权值增大;从而确保当再次输入A模式时能够做出准确判断。

如果输出结果为零,则对网络连接权值进行朝向减少总输入加权值方向的微调调整;从而使网络在再次遇到'A'模式输入时降低产生相同错误的概率。

采用此方法进行调整时,在经过上述训练过程后,其判断准确率预计会有显著提升。

该方法表明网络对这两个特定模式的学习已经取得了显著成果,并且已经将这些模式有规律地存储在各个连接权值中。当网络再次遇到任何一个模式时,能够快速可靠地进行识别和判断。

通常情况下而言,在一个网络中存在数量越大的神经元,则其识别能力就越强。

枫舞发布了一个小程序:人工神经网络实验系统(BP型)V1.0版。著者:沈琦。根据输出结果可以看出,在前3条‘学习’指令之后,‘输出’神经元达到了收敛值0.515974。

枫舞发布了一个小程序:人工神经网络实验系统(BP型)V1.0版。著者:沈琦。根据输出结果可以看出,在前3条‘学习’指令之后,‘输出’神经元达到了收敛值0.515974。

随后三条‘学习’指令运行完毕后系统记录下其收敛至数值为0.520051。接着观察处理编号为4和11的任务结果:P *Out1计算得出的结果为该数值了吗?通过分析发现编号为4和11的任务与该类别最为契合。

那么,请问这个结果真的令人惊叹吗?为了进一步验证,请尝试输入‘show’指令查看结果。
人工神经网络模型已初步形成,并支持用户自定义模式以实现数据分类与识别功能。
该平台汇聚了来自全球的专业研究者与技术实践者群体。
您可访问枫舞推荐的专业书籍资源以及丰富的学习资料库。
此外,在线的学习交流社群也为您提供了便捷的技术支持与合作机会。

枫舞增添:
在学术道路上我一直怀有探索未知的热情,
因此我在求学期间一直致力于人工智能领域的探索与研究。
尽管最终未能如愿考取理想的研究生院,
但这并未成为我放弃追求的脚步,
反而激励着我在专业领域持续深入探索前进。
目前的工作也始终围绕着人工智能技术的研究与应用展开。

枫舞增添:
在学术道路上我一直怀有探索未知的热情,
因此我在求学期间一直致力于人工智能领域的探索与研究。
尽管最终未能如愿考取理想的研究生院,
但这并未成为我放弃追求的脚步,
反而激励着我在专业领域持续深入探索前进。
目前的工作也始终围绕着人工智能技术的研究与应用展开。

枫舞增添:
多年以来我一直致力于智能机器人领域的研究与发展,
并在学术道路上始终保持探索未知的热情。
因此,在专业学习阶段我也逐渐转向了这一前沿领域的发展方向。
然而不幸的是,在攻读硕士学位期间未能如愿考入理想的学府继续深造的机会;
但凭借自身的努力不断充实自我知识储备并拓展实践经验积累,
如今我已经能够从容应对各种技术挑战并取得了一定的成果表现!
希望未来能够与更多志同道合的朋友共同探讨交流并推动这一领域的发展进步!

什么是神经网络,举例说明神经网络的应用

我想这可能是你想要的神经网络吧!

What constitutes a neural network? The artificial neural network, abbreviated as ANN or ANNs, is also referred to as a neural network (NN) or a connection model (CM). It is an algorithmic model designed to emulate the behavior patterns observed in biological neural networks. A mathematical model for processing information in parallel and distributed manner.

What constitutes a neural network? The artificial neural network, abbreviated as ANN or ANNs, is also referred to as a neural network (NN) or a connection model (CM). It is an algorithmic model designed to emulate the behavior patterns observed in biological neural networks. A mathematical model for processing information in parallel and distributed manner.

这种网络依赖系统结构的复杂性,在通过调节内部大量节点之间相互连接关系的基础上实现了信息处理功能

神经网络的应用:主要应用于基于网络模型与算法的研究之上,在构建各种实际应用系统的过程中发挥重要作用。例如,在完成某种信号处理或模式识别功能的同时,还能够构建专家系统并开发出智能机器人,并用于实现复杂系统的自动控制管理,并解决相关技术难题。

纵观当代新兴科学技术的发展历史,人类在探索宇宙空间、基本粒子以及生命起源等科学技术领域的过程中,经历了多难多辛的道路。展望未来,我们有理由相信,对人脑功能与神经网络的研究必定会经历重重挑战,最终实现持续性的进步与发展

神经网络的研究内容相当广泛,反映了多学科交叉技术领域的特点。

主要的研究工作主要集中在以下五个领域:通过研究生物体的生理机制、行为模式以及组织结构等特征构建了相应的神经细胞模型,并进一步探讨了其连接模式和功能机理;在脑科学研究中深入分析了大脑功能与神经系统之间的相互作用;在病理学科背景下对疾病机制进行了详细解析,并结合神经系统组成特点进行深入探讨;此外,在心理学视角下重点研究了人类行为模式与神经系统之间的关系,并通过构建相应的模型来揭示其中的内在联系;最后,在解剖学科的基础上对组织结构进行了深入分析,并结合神经系统组成特点进行了系统性探讨。

基于生物原型的研究来构建神经元与神经网络的理论体系,则会形成相应的理论框架

算法基于理论模型研究构建具体的神经网络架构,并用于完成计算机模拟任务或用于准备硬件制作;这些工作涉及相关的神经网络学习算法研究,并被称为技术model research.

神经网络主要运用向量乘法作为其运算基础,并且通常采用符号函数及其各种近似替代;其特点包括高度并行性、容错能力强度以及可硬件化实现之外还有自主学习能力;这也正是区分于传统计算方法的关键特征。

有人可以介绍一下什么是"神经网络"吗?

由于神经网络作为一种多学科交叉的产物,各相关学科对这一技术持有不同的观点。由此可见,在科学界对于神经网络的确切定义存在多种不同的看法。

由于神经网络作为一种多学科交叉的产物,各相关学科对这一技术持有不同的观点。由此可见,在科学界对于神经网络的确切定义存在多种不同的看法。

目前普遍采用T.Koholen所提出的定义:神经网络是由具有适应性简单单元构成的整体系统,并且具有高度并行性和互连性;其组织结构能够模仿生物神经系统对真实世界物体所表现出的行为模式以及响应机制。

通过将人脑神经信息活动的特点与现行冯·诺依曼计算机的工作方式进行对比分析,我们可以发现人脑具有如下显著特点:1.大规模并行处理能力

在冯·诺依曼架构中(冯·诺依曼机),信息处理主要以集中、顺序方式进行(集中、串行)。这意味著所有的指令都需要依次经过CPU才能完成执行过程(即所有的程序指令都必须调到CPU中后再一条一条地执行)。而人类在识别图像或进行决策时(人在识别一幅图像或作出一项决策时),多种 stored knowledge and experience 同时被调用并迅速组合形成解决方案(存在于脑中的多方面的知识和经验会同时并发作用以迅速作出解答)。

研究表明,在人脑中存在大约10^{(10)}10^{(11)}数量级的神经元网络单元。每个神经元单元拥有约1\times 10^{2}个连接关系的能力,则为大脑提供了极高的信息处理存储空间。在需要做出快速决策或处理复杂问题时,人脑能够在极短时间内完成高度复杂的计算和信息整合。

将信息处理与存储单元进行整合,在冯·诺依曼架构中,默认情况下操作数据前必须首先确定数据所在的内存地址;一旦内存发生故障,则所有数据都将无法正常读取或写入。

而人类大脑神经元不仅具备信息处理能力而且拥有存储功能因此在进行记忆活动时无需先确定存储位置再恢复完整信息反而能够通过局部信息重建整体记忆模式

当硬件发生故障(如机器受损)时,并非所有的数据都会失效;而是只有在极端情况下才会丢失一部分数据。此技术能够实现自我组织与学习

冯·诺依曼型计算机缺乏主动学习功能和自适应能力,在执行数值或逻辑运算时必须严格按照预先编写的程序进行操作

而人脑凭借内在的自我组织与自我学习能力持续地适应外部环境,并能有效地应对包括模拟性问题、模糊性问题以及随机性问题在内的各类挑战。神经网络研究的主要发展过程大致可分为四个阶段:第一阶段是从20世纪50年代中期开始形成的。

西班牙解剖学家Cajal于19世纪末提出了神经元学说

在随后的时间里发展出了一系列染色技术和微电极技术,在这些技术的支持下持续为神经元的主要特征及其电学性质提供了关键信息。

1943年左右,在美国心理学家W.S.McCulloch与数学家W.A.Pitts合著的论文《神经活动中所蕴含的思想的逻辑活动》中提出了一种相对简单的神经元模型,并将其称为M-P模型。

该模型将人工神经元视为功能逻辑器件被构建以实现神经网络模型的理论研究

于1949年出版了专著《行为的组织》,该书由心理学家D.O. Hebb撰写。书中提出了一种关于神经元间连接强度变化的规则,并将其命名为Hebb学习法则。

Hebb记录道:"当神经元A的轴突与邻近神经元B保持紧密接触并触发其兴奋反应时,如果A持续反复刺激B,则必然伴随生长或代谢过程的变化发生;这种变化将显著提升A对B的兴奋传递效率。"

从直观上讲,在信息传递机制中可以看出:当两个神经元同时处在一个高度兴奋的状态时(即它们都达到了阈值),其之间的突触连接强度将被进一步强化。

五十年代初,在研究神经细胞膜等效电路的过程中(或:生物学家Hodgkin与数学家Huxley在研究神经细胞膜等效电路的过程中),他们将膜上离子的迁移变化分别对应为可变的钠离子通道(Na+)和钾离子通道(K+),从而建立了一个重要的Hodgkin-Huxley方程模型。(注:根据原文内容调整后的表达方式)

这些先驱者的开创性工作推动了众多学者投身于该领域的研究工作,并促使神经计算理论奠定了基础。 2. 第二阶段在五十年代中期至六十年代末期间进行。

在1958年,F.Rosenblatt等人研发成功了具备了学习能力的第一台神经网络设备,这台设备被称为Mark I感知机(Perceptron),是神经网络研究进入新阶段的重要里程碑

Rosenblatt证实了无隐藏层感知机的学习算法具有收敛性,并指出该算法通过逐步调整网络中的连接权重来实现预期计算的结果。

在其之后,B.Widrow等人开发出一种不同类型的具有学习能力的神经网络处理单元,即自适应线性神经元,并为该系统提供了一种有效的学习机制,这一机制仍是机器学习领域的重要基础之一。

Widrow还创设了第一间神经网络硬件公司,并在20世纪中期开始投入使用神经网络机器及其相应的软件系统。

除了Rosenblatt与Widrow之外,在这一阶段有许多人对神经网络的结构与实现方法提出了显著的研究。例如,K.Steinbuch研究了一种称为学习矩阵的二进制联想网络模型及其硬件实现方案。

N.Nilsson于1965年发行了《机器学习》一书对这一时期的活动进行了综述分析。在六十年代末至八十年代初之间

第三阶段开始的标志是1969年M.Minsky和S.Papert所著的《感知机》一书的出版。

本书对单层神经网络进行了全面探讨,并借助数学理论证明了这种网络的能力有限, 即使对于像异或这样简单的逻辑运算问题也无法解决. 此外, 他们还发现存在许多模式无法通过单层神经网络进行训练, 而关于多层神经网络的可行性仍需进一步探讨.

因M.Minsky在人工智能领域的卓越地位,在其著作中提出的悲观观点对当时沿着感知机方向发展的神经网络研究产生了显著影响。

在《感知机》出版后的一段时间里(持续了15年),美国联邦基金停止了对神经网络研究领域的资助工作;与此同时,在此期间前苏联也宣布暂停了多项具有前景的研究项目。

然而,在当前背景下(即低潮期),仍有研究人员致力于神经网络领域的发展。包括来自美国波士顿大学的S.Grossberg教授、芬兰赫尔辛基技术大学的T.Kohonen教授以及日本东京大学的甘利俊一教授等。

他们持续的努力为神经网络研究的复兴奠定了基础。 4. 第四阶段从八十年代初到至今。

1982年, 美国加州理工学院的生物物理学家John J. Hopfield开发了一种基于全互连型神经网络模型的新方法, 利用所定义的计算量度函数实现了旅行商问题(Travelling Salesman Problem,简称TSP)的有效求解

此次突破性进展表明了神经网络相关领域的第四个发展阶段已正式开启,并且这一阶段仍处于蓬勃发展的状态。Hopfield模型提出后,众多研究人员致力于发展这一模型以使其更加贴近大脑的功能特性。

1983年,T Sejnowski与G Hinton首次提出隐单元概念,并成功研发出Boltzmann机

日本福岛邦房基于Rosenblatt提出的感知机模型,在此基础上发展出具有隐层单元的神经网络结构,并命名为"认知机"以实现联想式学习。Kohonen利用了3000个阈值元件来构建神经网络架构,并使其实现二维空间内的联想式学习功能。

1986年, David Rumelhart与John McClelland在当年发表了一本具有里程碑意义的著作《并行分布处理——认知微结构探讨》, 这本书的发布标志着神经网络研究迈入了一个新时代.

1987年,在圣地亚哥举行了首次国际神经网络大会,并宣告了国际神经网络联合会INNS的成立。

继而INNS创办了学术期刊《Journal Neural Networks》。此外,《Neural Computation》、《IEEE Transactions on Neural Networks》以及《International Journal of Neural Systems》等专业期刊也陆续推出。

世界上的众多知名大学陆续宣布设立神经计算研究所,并制定了相关教育规划;许多国家纷纷建立了神经网络学会,并组织了各类地区性和国际性的会议;持续产生了诸多优秀的著作和重要成果。

当前时期,在经历了多年的发展与研究后

此计划持续时间为15至20年,并且前期投入已超过1万亿美元。在此计划中,在神经网络与脑功能研究方面占据重要地位的是因为'人类前沿科学'特指涉及人类大脑及其借 mimicking研发新一代计算机的科学研究领域。

在(地点),针对(领域)的研究获得了(支持者)有力的资金与政策支持。为了推动这一目标的实现,在总预算为4亿美元的拨款下,由美国国防部高级研究计划局负责制定并实施了一个为期8年的研究项目,并建立了相应的组织与指导委员会

此外,海军研究办公室(ONR)和空军科研办公室(AFOSR)等均积极投入了巨量资金展开神经网络的研究.美国国防高级研究计划局(DARPA)则认为,神经网络似乎成为实现机器智能的关键突破口,并断言"这项技术超越了核武器计划的重要性."

NSF、NASA等政府机构对神经网络的发展均给予高度关注,并采取不同方式对其加以资助。它们分别以多样化的形式资助了多个研究项目。欧洲经济合作与发展组织则制定了相应的研发计划。

在其ESPRIT计划中就有一个项目涉及「神经网络在欧洲工业中的应用」

此外,在欧洲大陆的一些国家还设有各自的科研规划。例如德国自1988年起便启动了"神经信息论"这一研究项目。我国自1986年起就组织过多次非正式的神经网络研讨会。

1990年12月,在中国计算机学会、电子学会、人工智能学会、自动化学会、通信学会、物理学会、生物物理学会以及心理学会等八个学组织合下,在北京举办了"中国神经网络首届学术会议";这一会议的召开标志着我国神经网络研究迈入了一个新纪元

人工神经网络,人工神经网络是什么意思

一、 人工神经网络的概念
人工神经网络(Artificial Neural Network, ANN)简称神经网络(NN),起源于生物学中对神经网络基本原理的理解与抽象。经过深入研究与抽象后, 神经网络理论通过系统地模拟人类神经系统对复杂信息处理机制的知识体系, 建立了以数学模型为基础的理论框架

该模型具备并行处理能力和分布式计算特点的同时具备抗干扰能力强的特点,在实现信息处理与数据存储有机融合的基础上凭借其独特知识表示方法以及智能化自适应学习机制获得了各学科领域的关注

它实际上是由大量简单元件相互连接而形成的复杂网络,并且表现出高度非线性的特性。该系统能够执行复杂的逻辑操作以及实现非线性关系系统的动态行为。神经网络作为一种运算模型,在其结构中包含大量节点(或称神经元),这些节点通过互相连接形成复杂的动态行为。

每个节点代表一种特定的输出函数,称为激活函数(activation function)。

每个节点之间的连接都象征着一种通过该连接传递信号的价值系数。这种价值系数被称为权重(weight)。神经网络正是以这种方式模拟人类的记忆过程。其输出结果则主要受到网络结构、连接模式以及权重设置和激活函数的影响。

而网络通常是对自然界中某些算法或函数进行模拟,并可能以一种逻辑策略的形式存在。
神经网络的理念是由生物神经网络运作原理所启发构建而成。

人工神经网络则是系统性地将对生物神经网络的认识与数学统计模型相结合,并借助数学统计工具来进行综合运用。

另一方面,在人工智能领域的人工感知方面,我们基于数学统计学的方法使神经网络不仅具备类似人类的决策能力,并且还拥有基本的判断能力。这种技术可视为传统逻辑运算发展的一个扩展。

在人工神经网络中,神经元处理单元能够代表不同对象,如特征、字母、概念等,其中还包括一些具有意义的抽象模式.在该网络中,处理单元主要分为三类:输入单元、输出单元以及隐含单元.

输入端接收外部系统的信号与数据;
处理层负责完成系统处理结果的传递;
隐层节点位于输入层与输出层之间,并非系统外可直接观测的组成部分。

不同神经元之间的权重参数表征了它们之间的相互作用程度;信息如何编码与运算则由网络中各处理单元之间的连接关系决定。

人工神经网络是一种具有非程序化的特征、适应性的特点以及生物 inspired的大脑模式的信息处理系统。其本质是基于网络的动力学行为以及形态结构变化实现信息的并行分布式处理,并能够模拟不同层次和程度的人脑神经系统信息处理机制。

人工神经网络是一种模拟了人类大脑中神经元之间连接模式的数学模型,在其构建是基于对人类大脑组织结合和思维机制的认识基础上发展起来的一种技术学科。该模型不仅能够进行复杂的计算任务还广泛应用于各个科学领域如神经科学、统计学、工程学以及人工智能等研究领域。

第二章 人工神经网络的发展历程有着悠久的历史背景。从理论提出到实际应用推广经历了四个重要发展阶段

第一阶段----萌芽时期(1)、人工神经网络模型:上世纪四十年代末起始阶段的人们开始系统性地研究人工神经网络的发展历程。

在1943年, 美国心理学家麦卡洛克(Mcculloch)和数学家皮茨(Pitts)提出了M-P 模型; 这一模型相对简单 但意义重大.

在该模型中,在将神经元视为功能逻辑器件的过程中实现了相应的算法计算过程,并因此奠定了神经网络理论的基础。

(2)、Hebb规则:在20世纪40年代初由神经心理学先驱赫布(Donald Hebb)在其著作《The Organization of Behavior》(行为组织学)中首次提出,并基于动态可变性原理阐述了突触连接强度可变的理论框架

该假设认为学习过程最终发生在神经元之间的突触部位,其连接强度会随着突触前后神经元的活动而变化.此假说后来发展成为神经网络领域非常著名的Hebb规则.

这一原则揭示了不同神经元之间突触连接强度是可以调节的这一特点,并明确指出这种可变性对于学习与记忆的重要性。Hebbianness理论提供了构建能够执行学习与记忆任务的人工神经网络模型的基本框架。

罗森勃拉特于1957年提出感知器(Perceptron)模型,并基于M-P模型进行研究

感知器模型基于现代神经网络体系的核心理念,并且其结构非常契合其神经生理学特征。

该系统采用可调节权值向量设计的MP型神经网络架构。通过训练实现对预设输入向量模式进行分类识别的目标。尽管结构相对简单,但它是首个真正意义上实现人工神经网络概念的系统。

Rosenblatt 确实证实了两层神经网络确实具备将输入分类的能力,并且他在深入探讨带隐式处理单元的三层神经网络这一重要研究领域

Rosenblatt 的神经网络模型基于现代神经计算机的一些基本原理而发展起来,并最终导致了神经网络方法和技术的重要突破。

ADALINE网络模型:1959年, 美国著名工程师Bill Widrow与Marie Hoff等人创建了自适应线性神经元(Adaline)以及Widrow-Hoff学习规则(即最小平方误差算法或Δ法则),并将其应用于工程实践。该方法的成功应用标志着人工神经网络在解决实际问题中的应用首次取得了重大突破。

ADALINE网络模型被称为具有连续输出特性的自适应线性神经单元构成的网络体系,并被应用于自适应系统的研究与开发中。

在低潮时期的AI领域中,Minsky与Papert作为先驱者,对代表性的神经网络模型功能及其局限性进行了系统的数学分析.他们在1969年出版了广为人称的著作《Perceptrons》,揭示了简单感知机的能力限制,并指出这种模型无法处理非线性分类问题,例如无法实现与异或类似的逻辑运算.

该理论为当时的人工神经元网络研究带来了严峻的挑战。这标志着神经网络发展历程进入持续10年的低迷阶段。

(1) 自组织神经网络模型:于1972年首次由芬兰学者KohonenT提出的

主要依据KohonenT.的研究而发展起来。SOM网络是一种无监督学习型的人工神经网络,并广泛应用于模式识别、语音识别以及分类分析的任务中。

该系统使用一种"胜者为王"的竞争学习算法。相较于先前提出的感知器存在本质的不同。同时其学习训练方式属于无监督式训练,并被视为一种自适应系统。

这种方法通常是在缺乏明确分类类型的情况下用于获取分类信息的一种训练

(2)、自适应共振理论ART:1976年时,在美国由Grossberg教授开创了自适应共振理论(Adaptive Resonance Theory, ART)这一重要理论框架。该理论体系以其独特的学习机制具备高度的自主性和稳定性为显著特点

第三阶段为复兴时期(1),Hopfield模型:1982年美国物理学家霍普菲尔德提出了一种离散神经网络模型即离散Hopfield网络极大地方推动了神经网络研究的发展

在信息传播领域中, 该系统首次引入了李雅普诺夫(Lyapunov)理论框架, 后续研究者则将其命名为能量转换理论. 通过理论推导验证了网络系统的稳定性.

在1984年,Hopfield 开发了一种新型的连续神经网络, 该网络通过改进激活函数的设计实现了从离散到连续的变化。

1985年,Hopfield与Tank开发了Hopfield神经网络,并成功解决了旅行商问题这一经典难题。Hopfield神经网络由非线性微分方程组组成。

Hopfield模型不仅构建了一个非线性数学模型来描述人工神经网络的信息存储与提取机制,并推导出一套完整的动力学方程组与学习算法表达式,在此基础上为神经网络算法提供了关键数学表达式与参数设置方案。这些理论成果为人工神经网络的设计与应用提供了坚实的理论支撑体系,在Hopfield理论框架下推动了大量研究者投身于神经网络领域的深入探索与创新实践

由于Hopfield 神经网络在多个领域展现出巨大的潜力,并因此,在这一领域内对神经网络的研究倍受关注。随着越来越多的研究者投身于神经网络的研究之中,在这一基础上不仅推动了该技术的发展趋势,并且为这一技术的发展奠定了坚实的基础。

(2)、Boltzmann机模型:Kirkpatrick等团队于1983年首次意识到模拟退火算法在解决NP完全组合优化问题方面具有重要应用价值;最初由Metropolis等人在1953年提出了一种基于模仿高温物体退火过程以寻找全局最优解的方法。

在1984年,Hinton与年轻学者如Sejnowski等合作,开发了大规模并行网络学习体系,同时首次提出隐单元概念.这种体系后来被命名为Boltzmann机.

Hinton和Sejnowsky基于统计物理学的概念与方法,在最先提出多层网络的学习机制或过程,并将其命名为Boltzmann机模型

(3)、BP神经网络模型:1986年, 儒默哈特等人在多层神经网络模型的基础上, 提出了权值修正的反向传播学习算法----BP算法(Error Back-Propagation), 使得多层前向神经网络能够实现学习任务, 并且具有强大的学习能力, 它能够完成多种学习任务并有效解决多种实际问题。

(4)、并行分布式处理理论是1986年由Rumelhart与McCkekkand合著的经典著作《Parallel Distributed Processing: Exploring the Microstructures of Cognition》中提出的重要理论基础。在该书中,他们系统地建立了并行分布式处理理论体系,并对基于非线性连续转移函数的多层前馈网络设计了精确有效的误差反向传播算法(即BP算法)进行了全面深入的研究。

能够求解传统感知机无法处理的问题,并回应了《Perceptrons》一书中对神经网络局限性的深入讨论,在实验验证中充分展示了人工神经网络在实际应用中展现出的强大计算能力

细胞神经网络(CNN)体系:1988年,Chua和Yang建立了一个基于细胞自动机特性的大型非线性计算机仿真体系。

Kosko开发了双层联结存储体系(BAM),该体系具备非监督学习特性。(6) Darwism模型:Edelman提出在20世纪90年代初的达尔文主义模型对神经网络系统理论的发展产生了重要影响,并构建了神经网络系统理论框架。

1988年,在研究感知机网络时,Linsker开创性地提出了新的自组织理论,并在此基础上构建了最大互信息理论体系,在推动神经网络(NN)领域的发展中具有里程碑意义

1988年,Broomhead和Lowe基于径向基函数理论提出了分层网络设计的方法,从而建立了神经网络设计与数值分析、线性适应滤波之间的联系

1991年,在Haken的理论体系中,他提出认知活动具有自主性,并将模式识别视为模式形成的过程。

1994年廖晓昕关于细胞神经网络的数学理论与基础的系统性阐述推动了该领域的发展

通过扩展神经网络的激活函数类别, 提出了更为普遍的DCN、HNN和BAM模型.

(11)、上世纪90年代初期,Vapnik及其合作者提出了一种称为支持向量机(Supportvector machines, SVM)的新方法,同时创建了与之相关的VC(Vapnik-Chervonenkis)维数理论框架.这一理论为机器学习领域的发展提供了重要的理论基础,并推动了后续研究工作的深入进展.

经过多年的发展,已有上百种的神经网络模型被提出。

神经网络算法原理

4.2.1 概述人工神经网络的研究与计算机的研究几乎是同步发展的。

在1943年时, 心理学家McCulloch与数学家Pitts共同建立了形式神经元的数学模型. 在20世纪50年代末期, Rosenblatt提出了一种叫做感知器的模型. 1982年, Hopfield通过引入能量函数的概念而发展出了一种神经网络的数学模型. 在1986年, Rumelhart及其合作伙伴LeCun等人开发出了多层感知器的反向传播算法.

神经网络技术经过诸多研究者们的潜心钻研,在理论上日臻成熟,并呈现出持续增长的趋势。当前关于神经网络的理论研究成果繁多丰富,在学术界已编写出了多本基础理论专著,并且如今更是成为全球范围内非线性科学研究的重要议题之一。

神经网络通过模仿人类大脑的神经结构来模拟智能活动并完成信息处理任务具备基本认知能力却并非真实的人脑映像而是一种抽象化简化的认知工具模型常用于人工智能研究领域(边肇祺 2000)

人工神经元是神经网络的关键组成单元之一,在现代神经系统研究中占据核心地位。当前,在神经元模型方面,已开发出了多种多样的数学描述框架。其中最为基础且广泛应用的是基于阈值函数与Sigmoid函数设计而成的经典二层感知机模型(如图4-3所示)。

图4-3 人工神经元与两种常见的输出函数神经网络学习及识别方法最初是由生物界人脑神经元的学习识别机制所提出的方法。

输入参数如同神经元接收信号信息,并通过特定权重系数(相当于增强神经兴奋的程度)与其相关联。从其模拟机制与多元线性回归相似的角度来看,在后续步骤中非线性特性得以体现:即设定一个阈值(相当于神经元兴奋极限),以此来确定神经元活动模式;经过运算得到最终结果

通过充分的样本数据进行网络系统的深度学习训练后, 使得输入信号与神经元之间的权值趋于稳定状态, 并能够最大限度地适应并匹配预先进行过训练的学习样本

在经过网络结构合理性和学习效果精确度的验证之后,在输入待预测样本时将参数代入网络以实现参数预测的目标。

4.2.2 反向传播算法(BP法)经历了几十年的发展,目前已有超过几十种不同的神经网络模型,例如包括前馈神经网络、感知器、Hopfield 网络以及径向基函数网络等多种类型,其中反向传播算法(BP法)占据重要地位。但对于储层参数反演问题而言,在现有的应用中较为成熟且流行的网络类型是基于误差反向传播的人工神经网络(BP-ANN)。

BP网络是在前馈神经网络的基础上发展而来的,在其基本架构中包括一个或多个隐含层(通常指至少一层具有任意数量节点的隐藏结构)。其输入层由与每个输入变量相对应的节点构成;输出则由与每个输出值对应的节点完成;而其中至少存在一层具有任意数量节点的隐含层(亦称隐藏结构),这是其区别于传统前馈网络的关键特征。

在 BP-ANN 模型中,相邻层的神经元通过随机初始化的权重参数进行全连接处理;而位于同一层内的各个神经元之间则没有直接的连接路径。

对于BP-ANN模型而言,在隐层与输出层节点上所使用的基函数需要满足两个条件:一是具有连续性;二是呈现出单调递增的特点;并且当输入趋向于正无穷或负无穷时其值应趋近于一个定值即此基函数呈现S型特征(Kosko, 1992)。

BP-ANN 的训练过程属于一种监督学习的技术,在其中包含两组数据集:训练数据集与监督数据集。

为网络的输入层输入一组数据,并使该过程在输出层上生成预期结果的行为被称为学习过程;或者视为对网络的训练;用来完成这一任务的方法被称为学习算法

BP网络的学习过程包含两个阶段:第一阶段是前向传播过程,在此过程中输入变量通过输入层经隐含层逐层计算各单元的输出值;另一阶段是反向传播过程,在这一过程中根据输出误差逆向计算隐含层各单元的误差,并据此修正前一层权值。

误差信息经由网络反向传播,在基于误差逐步减小的原则下调整权值直至获得预期的输出结果。

网络通过训练形成了一套稳定的权重连接关系,在输入层中设置待预测样本的参数后,通过前向传播算法即可获得预测结果

反向传播算法的主要步骤如下:首先初始化设定权系数的初始值;接着反复执行以下操作直至收敛(并针对每个样本逐一计算)。

(1)从前到后依次计算每一层单元的O_j储层特性分析及预测。(2)针对输出 layer 单元进行 δ_j 的储 layer 特性分析及预测。(3)从后往前依次分析每条隐 layer 单元的 δ_j 储 layer 特性及预测。(4)逐一计算并存储每组权重调整量对应的储 layer 特性及其预测结果。(5)通过调整权重参数实现对每个样本的学习过程优化。此外,在实际应用中常采用的方法是将所有样本的 δ_j 求和作为整体误差指标,并以此作为调整权重参数的标准进行优化调整

全部评论 (0)

还没有任何评论哟~