神经网络算法有哪些模型,神经网络是模型吗

1、BP神经网络 网络仿真具体什么意思?为什么进行仿真?仿真有什么用?(初学BP。。。)
用样本去训练一个BP网络,然后用新的样本作为输入,再通过这个已经训练好的BP网络,得到的数据就是仿真的结果,这就是BP网络仿真。我们训练一个BP网络就好像是在训练一个神经系统,然后用这个已经具备分析能力的神经系统去分析事情,这就是为什么要仿真,说到底就是为了用。仿真的作用你可以从BP神经网络的用途上去看,例如很经典的可以用来做分类器等。你用不同类别的样本(输入+对应的期望输出)作为训练,然后给出一个新的输入,BP网就能给你这个所属的类别。
谷歌人工智能写作项目:小发猫

2、神经网络仿真和预测一样么? 20
文章中的模拟值应该是你通过仿真进行的预测而得到的数值!而与真实值拟合是为了得到你预测的结果是否准确,预测的误差多大!进行分析!看看得到的结果是不是可行的~
仿真就是进行预测的过程!拟合是为了验证仿真结果~
不知道说的够不够清楚!要是不清楚请LZ继续提问!我正好是做预测这一块的~可以好好交流一下
3、关于神经网络仿真的一些概念问题 40
1、常用的有sigmoid型函数、tansig函数、logsig函数等。采用不同函数,神经网络的运算效果不同。实际问题中,函数的选择是根据试验结果决定的,也就是试出来的。
2、神经网络的拓扑结构无理论依据,也是通过试验试出来的。一般来说三层网络结构可以模拟任意函数,但也有例外。而且,通常网络结构越复杂,神经网络的模拟性能越好,但是过拟合的可能性也越大。
4、学校科研立项,关于神经网络的计算机仿真模拟,诸位大侠有没有好一点的课题,不要太大,适合大二学生
神经网络,是个好东西,居然问到百度上来了,看来百度做的真成功,把各个领域的问题都吸引来了,哈哈。
神经网络的是模式识别的一种常用方法,它的数学本质是数据划分。从数学的层面看并不难,但对于大二的学生确实蛮有些挑战。
不知道你们的课题是侧重理论还是应用。如果侧重理论的话,就找一个简单一些的应用背景,然后在神经网络的结构上下功夫,从基本的BP网络到径向基神经网络在到其他的乱七八糟的网络,你可以根据应用背景适当搭配或变种。这种理论层面的东西其实很难,但由于国内有做假大空文章的传统,所以理论文章在国内反倒容易做了。如果你真要做点产品出来,我不建议做理论研究,那是真正的数学家的事情。作为大二的学生,你们立项大约更侧重实际应用,我推荐几个项目给你,这些项目不是我一拍脑袋想起来的,你看过以后就知道了。
1、定量预测化工产品。化工生产中一般是N种原料经过反应炉生产出M种产品。N种原料不同比重的配方生产出的产品种类和数量也各不相同,其生产过程为复杂函数映射,适合用神经网络识别,此项目的难点在于生产数据的搜集,你需要用大量不同配方的投入产出数据做训练。这个项目做好了,在化工行业有很强的实用价值。
2、电子中医产品。需要一个电子脉搏传感器(人民币约300-800元),依据脉搏数据特征诊断病情。该项目需要与中医合作,对不同病人进行脉搏信号采集,优势是实验成本很低,难点在于人体系统十分复杂,其数学映射的复杂程度远高于化工生产。
3、语音识别。用神经网络判别语音的语义。这个苹果、谷歌和微软很多年前就在做了,也有成熟产品,例如微软可以识别几十种人的声带发出的指令,例如开关机之类,但是做的还不够,最理想的产品是能正常听懂人类的日常用语。这个实验成本最低,但实验规模并不比电子中医小,你要做比脉诊更多得多的实验。
4、数据校正。根据相互关联的几组数据校正一组有嫌疑的数据,主要用在化工领域,比如生产线上某几个指标如液位A、流量B等等,相互都用复杂的函数关联,相互不独立。你可以通过常规生产数据用神经网络拟合出大致的映射,然后在某些生产数据出现异常的时候,用神经网络给出这个数据在该工况下的参考值,以辅助检修人员查看。
5、逻辑模拟。用神经网络模拟与非门组合逻辑的功能,机器人系统中大量用到,实验很简单。本项目的好处是不需要设计人员去苦心钻研逻辑系统的设计与搭建,只要建立恰当的神经网络,自动训练出逻辑即可。
6、函数曲线、曲面拟合。这是偏理论一些的项目,主要针对低维函数,这个不需要大量实验,比较简单些,适合对神经网络结构优化的理论研究。
神经网络算法是十分有技术前途的算法,祝你申请顺利!
5、神经网络到底能干什么?
神经网络利用现有的数据找出输入与输出之间得权值关系(近似),然后利用这样的权值关系进行仿真,例如输入一组数据仿真出输出结果,当然你的输入要和训练时采用的数据集在一个范畴之内。例如预报天气:温度 湿度 气压等作为输入 天气情况作为输出利用历史得输入输出关系训练出神经网络,然后利用这样的神经网络输入今天的温度 湿度 气压等 得出即将得天气情况当然这样的例子不够精确,但是神经网络得典型应用了。希望采纳!
6、人工神经网络,人工神经网络是什么意思
一、 人工神经网络的概念
人工神经网络(Artificial Neural Network,ANN)简称神经网络(NN),是基于生物学中神经网络的基本原理,在理解和抽象了人脑结构和外界刺激响应机制后,以网络拓扑知识为理论基础,模拟人脑的神经系统对复杂信息的处理机制的一种数学模型。该模型以并行分布的处理能力、高容错性、智能化和自学习等能力为特征,将信息的加工和存储结合在一起,以其独特的知识表示方式和智能化的自适应学习能力,引起各学科领域的关注。它实际上是一个有大量简单元件相互连接而成的复杂网络,具有高度的非线性,能够进行复杂的逻辑操作和非线性关系实现的系统。
神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激活函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重(weight),神经网络就是通过这种方式来模拟人类的记忆。网络的输出则取决于网络的结构、网络的连接方式、权重和激活函数。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。神经网络的构筑理念是受到生物的神经网络运作启发而产生的。人工神经网络则是把对生物神经网络的认识与数学统计模型相结合,借助数学统计工具来实现。另一方面在人工智能学的人工感知领域,我们通过数学统计学的方法,使神经网络能够具备类似于人的决定能力和简单的判断能力,这种方法是对传统逻辑学演算的进一步延伸。
人工神经网络中,神经元处理单元可表示不同的对象,例如特征、字母、概念,或者一些有意义的抽象模式。网络中处理单元的类型分为三类:输入单元、输出单元和隐单元。输入单元接受外部世界的信号与数据;输出单元实现系统处理结果的输出;隐单元是处在输入和输出单元之间,不能由系统外部观察的单元。神经元间的连接权值反映了单元间的连接强度,信息的表示和处理体现在网络处理单元的连接关系中。人工神经网络是一种非程序化、适应性、大脑风格的信息处理,其本质是通过网络的变换和动力学行为得到一种并行分布式的信息处理功能,并在不同程度和层次上模仿人脑神经系统的信息处理功能。
神经网络,是一种应用类似于大脑神经突触连接结构进行信息处理的数学模型,它是在人类对自身大脑组织结合和思维机制的认识理解基础之上模拟出来的,它是根植于神经科学、数学、思维科学、人工智能、统计学、物理学、计算机科学以及工程科学的一门技术。
二、 人工神经网络的发展
神经网络的发展有悠久的历史。其发展过程大致可以概括为如下4个阶段。
1. 第一阶段----启蒙时期
(1)、M-P神经网络模型:20世纪40年代,人们就开始了对神经网络的研究。1943 年,美国心理学家麦克洛奇(Mcculloch)和数学家皮兹(Pitts)提出了M-P模型,此模型比较简单,但是意义重大。在模型中,通过把神经元看作个功能逻辑器件来实现算法,从此开创了神经网络模型的理论研究。
(2)、Hebb规则:1949 年,心理学家赫布(Hebb)出版了《The Organization of Behavior》(行为组织学),他在书中提出了突触连接强度可变的假设。这个假设认为学习过程最终发生在神经元之间的突触部位,突触的连接强度随之突触前后神经元的活动而变化。这一假设发展成为后来神经网络中非常著名的Hebb规则。这一法则告诉人们,神经元之间突触的联系强度是可变的,这种可变性是学习和记忆的基础。Hebb法则为构造有学习功能的神经网络模型奠定了基础。
(3)、感知器模型:1957 年,罗森勃拉特(Rosenblatt)以M-P 模型为基础,提出了感知器(Perceptron)模型。感知器模型具有现代神经网络的基本原则,并且它的结构非常符合神经生理学。这是一个具有连续可调权值矢量的MP神经网络模型,经过训练可以达到对一定的输入矢量模式进行分类和识别的目的,它虽然比较简单,却是第一个真正意义上的神经网络。Rosenblatt 证明了两层感知器能够对输入进行分类,他还提出了带隐层处理元件的三层感知器这一重要的研究方向。Rosenblatt 的神经网络模型包含了一些现代神经计算机的基本原理,从而形成神经网络方法和技术的重大突破。
(4)、ADALINE网络模型: 1959年,美国著名工程师威德罗(B.Widrow)和霍夫(M.Hoff)等人提出了自适应线性元件(Adaptive linear element,简称Adaline)和Widrow-Hoff学习规则(又称最小均方差算法或称δ规则)的神经网络训练方法,并将其应用于实际工程,成为第一个用于解决实际问题的人工神经网络,促进了神经网络的研究应用和发展。ADALINE网络模型是一种连续取值的自适应线性神经元网络模型,可以用于自适应系统。
2. 第二阶段----低潮时期
人工智能的创始人之一Minsky和Papert对以感知器为代表的网络系统的功能及局限性从数学上做了深入研究,于1969年发表了轰动一时《Perceptrons》一书,指出简单的线性感知器的功能是有限的,它无法解决线性不可分的两类样本的分类问题,如简单的线性感知器不可能实现“异或”的逻辑关系等。这一论断给当时人工神经元网络的研究带来沉重的打击。开始了神经网络发展史上长达10年的低潮期。
(1)、自组织神经网络SOM模型:1972年,芬兰的KohonenT.教授,提出了自组织神经网络SOM(Self-Organizing feature map)。后来的神经网络主要是根据KohonenT.的工作来实现的。SOM网络是一类无导师学习网络,主要用于模式识别﹑语音识别及分类问题。它采用一种“胜者为王”的竞争学习算法,与先前提出的感知器有很大的不同,同时它的学习训练方式是无指导训练,是一种自组织网络。这种学习训练方式往往是在不知道有哪些分类类型存在时,用作提取分类信息的一种训练。
(2)、自适应共振理论ART:1976年,美国Grossberg教授提出了著名的自适应共振理论ART(Adaptive Resonance Theory),其学习过程具有自组织和自稳定的特征。
3. 第三阶段----复兴时期
(1)、Hopfield模型:1982年,美国物理学家霍普菲尔德(Hopfield)提出了一种离散神经网络,即离散Hopfield网络,从而有力地推动了神经网络的研究。在网络中,它首次将李雅普诺夫(Lyapunov)函数引入其中,后来的研究学者也将Lyapunov函数称为能量函数。证明了网络的稳定性。1984年,Hopfield 又提出了一种连续神经网络,将网络中神经元的激活函数由离散型改为连续型。1985 年,Hopfield和Tank利用Hopfield神经网络解决了著名的旅行推销商问题(Travelling Salesman Problem)。Hopfield神经网络是一组非线性微分方程。Hopfield的模型不仅对人工神经网络信息存储和提取功能进行了非线性数学概括,提出了动力方程和学习方程,还对网络算法提供了重要公式和参数,使人工神经网络的构造和学习有了理论指导,在Hopfield模型的影响下,大量学者又激发起研究神经网络的热情,积极投身于这一学术领域中。因为Hopfield 神经网络在众多方面具有巨大潜力,所以人们对神经网络的研究十分地重视,更多的人开始了研究神经网络,极大地推动了神经网络的发展。
(2)、Boltzmann机模型:1983年,Kirkpatrick等人认识到模拟退火算法可用于NP完全组合优化问题的求解,这种模拟高温物体退火过程来找寻全局最优解的方法最早由Metropli等人1953年提出的。1984年,Hinton与年轻学者Sejnowski等合作提出了大规模并行网络学习机,并明确提出隐单元的概念,这种学习机后来被称为Boltzmann机。
Hinton和Sejnowsky利用统计物理学的感念和方法,首次提出的多层网络的学习算法,称为Boltzmann 机模型。
(3)、BP神经网络模型:1986年,儒默哈特(D.E.Ru melhart)等人在多层神经网络模型的基础上,提出了多层神经网络权值修正的反向传播学习算法----BP算法(Error Back-Propagation),解决了多层前向神经网络的学习问题,证明了多层神经网络具有很强的学习能力,它可以完成许多学习任务,解决许多实际问题。
(4)、并行分布处理理论:1986年,由Rumelhart和McCkekkand主编的《Parallel Distributed Processing:Exploration in the Microstructures of Cognition》,该书中,他们建立了并行分布处理理论,主要致力于认知的微观研究,同时对具有非线性连续转移函数的多层前馈网络的误差反向传播算法即BP算法进行了详尽的分析,解决了长期以来没有权值调整有效算法的难题。可以求解感知机所不能解决的问题,回答了《Perceptrons》一书中关于神经网络局限性的问题,从实践上证实了人工神经网络有很强的运算能力。
(5)、细胞神经网络模型:1988年,Chua和Yang提出了细胞神经网络(CNN)模型,它是一个细胞自动机特性的大规模非线性计算机仿真系统。Kosko建立了双向联想存储模型(BAM),它具有非监督学习能力。
(6)、Darwinism模型:Edelman提出的Darwinism模型在90年代初产生了很大的影响,他建立了一种神经网络系统理论。
(7)、1988年,Linsker对感知机网络提出了新的自组织理论,并在Shanon信息论的基础上形成了最大互信息理论,从而点燃了基于NN的信息应用理论的光芒。
(8)、1988年,Broomhead和Lowe用径向基函数(Radialbasis function, RBF)提出分层网络的设计方法,从而将NN的设计与数值分析和线性适应滤波相挂钩。
(9)、1991年,Haken把协同引入神经网络,在他的理论框架中,他认为,认知过程是自发的,并断言模式识别过程即是模式形成过程。
(10)、1994年,廖晓昕关于细胞神经网络的数学理论与基础的提出,带来了这个领域新的进展。通过拓广神经网络的激活函数类,给出了更一般的时滞细胞神经网络(DCNN)、Hopfield神经网络(HNN)、双向联想记忆网络(BAM)模型。
(11)、90年代初,Vapnik等提出了支持向量机(Supportvector machines, SVM)和VC(Vapnik-Chervonenkis)维数的概念。
经过多年的发展,已有上百种的神经网络模型被提出。
7、人工智能和神经网络有什么联系与区别?
联系:都是模仿人类行为的数学模型以及算法。神经网络的研究能促进或者加快人工智能的发展。
区别如下:
一、指代不同
1、人工智能:是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
2、神经网络:是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。
二、方法不同
1、人工智能:企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
2、神经网络:依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。
三、目的不同
1、人工智能:主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。
2、神经网络:具有初步的自适应与自组织能力。在学习或训练过程中改变突触权重值,以适应周围环境的要求。同一网络因学习方式及内容不同可具有不同的功能。
参考资料来源:
参考资料来源:
8、matlab 应用神经网络,网络训练完毕如何进行仿真
p=-1:0.1:1;
t=[-0.96 -0.577 -0.0729 0.377 0.641 0.66 0.461 -0.1336 ...
-0.201 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 ...
0.396 0.3449 0.1816 -0.0312 -0.2183 -0.3201]; %目标数据
net=newff(minmax(p),[5,1],{'tansig','purelin'});
net.trainParam.epochs=50; %训练参数设置
net.trainparam.goal=1e-3;
net=train(net,p,t); % 这是你说的训练
y=sim(net, p); % 这个算是预测吧,就是看看训练的怎么样了
figure(2);
plot(p,t,p,y,'y+')
title('target compared to ideal')
xlabel('p')
ylabel('target')
grid
9、BP神经网络可以用于拟合函数吗
可以。
既然是函数拟合,那么事先就已经有函数表达式了。拟合的只是函数表达式中未知的参数。用神经网络对函数进行拟合,输出的就是未知参数的高精近似值。
人工神经网络就是模拟人思维的第二种方式。这是一个非线性动力学系统,其特色在于信息的分布式存储和并行协同处理。虽然单个神经元的结构极其简单,功能有限,但大量神经元构成的网络系统所能实现的行为却是极其丰富多彩的。
扩展资料:
如果待定函数是线性,就叫线性拟合或者线性回归(主要在统计中),否则叫作非线性拟合或者非线性回归。表达式也可以是分段函数,这种情况下叫作样条拟合。
一组观测结果的数字统计与相应数值组的吻合。形象的说,拟合就是把平面上一系列的点,用一条光滑的曲线连接起来。因为这条曲线有无数种可能,从而有各种拟合方法。拟合的曲线一般可以用函数表示,根据这个函数的不同有不同的拟合名字。
在MATLAB中可以用polyfit 来拟合多项式。
拟合以及插值还有逼近是数值分析的三大基础工具,通俗意义上它们的区别在于:拟合是已知点列,从整体上靠近它们;插值是已知点列并且完全经过点列;逼近是已知曲线,或者点列,通过逼近使得构造的函数无限靠近它们。
参考资料来源:
10、BP神经网络是用来干嘛的阿?
用样本去训练一个BP网络,然后用新的样本作为输入,再通过这个已经训练好的BP网络,得到的数据就是仿真的结果,这就是BP网络仿真。我们训练一个BP网络就好像是在训练一个神经系统,然后用这个已经具备分析能力的神经系统去分析事情,这就是为什么要仿真,说到底就是为了用。仿真的作用你可以从BP神经网络的用途上去看,例如很经典的可以用来做分类器等。你用不同类别的样本(输入+对应的期望输出)作为训练,然后给出一个新的输入,BP网就能给你这个所属的类别。
