Advertisement

神经元网络算法的思想,神经元网络算法有哪些

阅读量:

神经网络算法原理

涉及四种算法及其原理的内容如下:1. 自适应谐振理论(ART)网络具备多种实现方案。2. 每个 ART-1 网络由两部分组成:输入层和输出层。

这两层完全互连是相互连接的。该连接遵循正向路径(从底层到顶层)以及反馈路径(从顶层到底层)。学习矢量量化网络 LVQ 由三个层次构成:输入转换层、隐含层和输出层。

该网络在输入层与隐含层之间的连接实现了完整性,在此基础之上,在隐含层与输出层之间的连接仅限于部分神经元间的关联。具体而言,在输入信号传递过程中,每个输出神经元均会分别与其所对应的隐含神经元的不同子群建立联系

该网络或自组织特征映射网络由两层构成,在信息处理过程中起着核心作用;作为接收输入信号的中间环节,在系统中形成了特殊的功能模块;另一个是输出层,在此阶段完成信息的最终处理并反馈给上一层;其神经元通常以规则的二维阵列形式分布;在这样的拓扑结构中每个输出单元与全部的输入单元相连

连接权值建立与已知输出神经元相连的参考矢量的部分。 Hopfield 网络 Hopfield 网络称为一种典型的递归神经网络。 Hopfield 网络主要接收两种二元输入形式:一种是 0 和 1 表示的状态;另一种是 +1 和 -1 表示的状态

该系统由单一人工神经元构成,在其内部各神经单元均与其余所有的神经单元建立联系并形成反馈回路结构。扩展资料:人工神经网络算法的历史背景:该算法系统始于上世纪四十年代之后逐渐发展完善。

它由大量可调节的连接权值构成 具备高效的并行计算能力和分布式信息存储能力 并且具有较强的自组织与自学习性能 BP算法又被称作误差逆传播法 属于人工神经网络领域中的监督学习方法

BP神经网络算法从理论角度看具有近似表示任意函数的能力;其基本架构基于前馈层神经元构建;该系统展现出显著的非线性映射能力。

此外, 网络中间层节点数量以及各层处理单元的数量和学习因子等关键参数可通过具体情境进行配置. 该系统在性能上具有高度灵活性, 在优化算法设计方面表现突出, 并广泛应用于信号处理与模式识别等多个领域. 同时在智能控制和故障诊断等方面也展现出显著的应用潜力

参考资料来源:百度百科——神经网络算法。

谷歌人工智能写作项目:神经网络伪原创

神经网络算法的三大类分别是?

该算法主要包含三种主要采用前馈结构的设计模式。该种模式因其简便高效而成为机器学习领域中应用最广泛的架构类型**写作猫** 。其中信息从输入端开始接收数据,在经过一层或多层处理单元后逐步生成结果。这种基于层级递进的数据处理机制使得模型能够有效提取复杂的特征信息。特别地,在具有多个隐含层的情况下被称为"deep" neural network(深度神经网络),这种架构能够通过一系列转换操作实现对样本相似性度量。

各层神经元的神经元响应是前一层神经元响应的非线性函数。循环网络:通过有向边构成了相互连接的环路,在这种网络结构下可以从任一节点返回起点,并允许形成复杂反馈机制。这种组织方式更能贴近真实神经系统的行为模式,并使系统难以被有效地训练和控制。

循环网络的主要目标在于对序列数据进行分析和建模以提取有意义的信息。传统的神经网络架构按照从输入层依次经过隐含层最终到达输出层的方式组织结构,并且各相邻层次之间均采用全连接设计。然而这种传统的神经网络架构由于各层次内部节点之间不存在直接连接关系而无法有效处理许多实际问题

循环神经网路,即一个序列当前的输出与前面的输出也有关。

该网络能够记住前面的信息并将其用于当前计算的结果中;也就是说,在这种情况下,各隐藏层之间的节点之间不再是完全没有连接的状态;此外,在这种情况下,各隐藏层除了接收来自输入层的数据外还会接收来自上一层隐藏层的数据。

该网络能够记住前面的信息并将其用于当前计算的结果中;也就是说,在这种情况下، 各隐藏层之间的节点之间不再是完全没有连接的状态; 并且在这种情况中, 各个隐藏层数组不仅会接收到输入层数组提供的数据,还会接收到前一个时间点同一个隐含层数组提供的数据

该对称连接网络与循环网络有相似之处,并且其单元间的双向连接具有对称性(即各方向上的权重相等)。相较于循环网络而言,在分析复杂性上该体系具有更大的优势。由于其遵循能量函数定律,在实际应用中可能会带来更多的约束条件。

无潜在单元的对称连接网络称为Hopfield 网络;具有玻尔兹曼机特性的对称连接网络则被命名为玻尔兹曼机。

心理学家及认知科学家致力于探讨神经网络的作用机制,在深入研究人脑如何加工、存储以及检索信息的方式的同时

生物学、医学以及脑科学研究者致力于利用神经网络研究来推进脑科学成为以定量化、精确化以及理论化为基础的体系,并期望临床医学能够取得新的进展。信息处理与计算机科学家则探索新途径来应对那些目前无法解决或极为困难的问题,并构建能够更接近人类大脑功能的新型计算机系统。

神经网络算法原理

4.2.1 概述人工神经网络的研究与计算机的研究几乎是同步发展的。

在1943年,心理学家McCulloch与数学家Pitts共同建立了形式神经元的数学模型,随后于20世纪50年代末期, Rosenblatt提出了一种称为感知器的概念,为后来的发展奠定了基础.接着,在1982年,Hopfield基于能量函数的概念构建了一种神经网络的数学模型.而后,在1986年,Rumelhart及其合作伙伴LeCun等人开发出了多层感知器反向传播算法.]

神经网络技术由于众多研究者们的不懈努力,在理论上日益完善;其算法类型不断增多。目前而言,在相关领域已著述颇丰,并且在当前非线性科学研究中仍处于热点位置。

基于模仿人类大脑神经结构构建的人工智能信息处理系统

人工神经元作为构成神经网络的基本单元,在整个网络体系中扮演着不可或缺的角色。现有针对人工神经元的研究涉及多种不同的模型类型。其中最为常见且基础的模型通常采用阈值函数与Sigmoid函数相结合的方式构建(如图4-3所示)。

图4-3展示了人工神经元与两种常见输出函数的神经网络在学习及识别方法上的发展历史。这种技术最初借鉴了人脑神经元的学习行为模式,并在实践中提出了一套理论框架。

输入参数类似于神经网络中的输入单元,在特定权重(相当于传递信号强度)的作用下与相邻节点建立连接关系。这种机制在一定程度上模仿了传统统计方法中的多元线性回归模型;然而这些非线性特性是在后续步骤中通过设定一个阈值标准(通常定义为神经元激活门槛)来规范其激活模式。经过一系列运算处理后最终获得系统输出结果。

在神经网络系统中进行学习和训练后,在足够多的样本下,输入信号与神经元之间的权值趋于稳定状态,并最佳匹配程度达到了与已有的训练样本最佳匹配。

在经过网络结构合理性和学习效果精确度之后验证后,在将待预测样本输入到网络中时,则可实现参数预测的目标

4.2.2 反向传播算法(BP法)经过几十年的发展,在神经网络模型中已有不下十种不同的类型出现,并包括前馈神经网络、感知器、Hopfiled 网络、径向基函数网络以及反向传播算法(BP法)等多种架构设计。然而,在储层参数反演问题中,在实际应用中较为成熟且被广泛采用的是误差反向传播神经网络(BP-ANN)。

基于前馈神经网络的发展而形成的是BP网络体系,在其结构中始终包含一个输入层(其输入层通常包含与每个输入变量对应的神经元节点),以及一个输出层(其输出层则对应于每个输出值),其中至少包含一层具有任意数量神经元的隐含层,并被称为中间 layer)。

在 BP-ANN 模型中,不同层之间的节点采用任意初始权值进行连接,并非所有节点之间都存在连接关系;而同一层内的各个节点彼此之间则没有直接的连接。

对于该种人工神经网络模型中的隐含层与输出层节点基函数而言,在理论上需满足以下两个条件:首先要求这些基函数均为连续型函数且具有严格的单调递增特性;其次当输入信号趋向于正无穷或负无穷时系统应达到稳定状态即基函数渐近地逼近某一固定值并且这种渐近特性应呈现"S"型曲线特征(Kosko, 1992)。

BP-ANN模型的训练是一个基于监督的学习过程,并且它包含两个相关数据集合:一个是训练数据集而另一个是监督数据集。

向网络输入层施加一组输入数据,并使其通过该网络系统,在输出层生成与预期结果极为接近的输出结果的过程,则被定义为神经网络的学习过程或训练阶段;用于完成这一任务的具体方法被称为学习算法。

BP网络的学习包含两个主要阶段:第一阶段是前向传播过程,在此过程中系统通过输入层经由中间处理层逐步传递信号至各计算单元;第二阶段是反向传播过程,在这一过程中系统根据输出误差逆向计算并更新各隐层单元的误差值后,进一步修正前一层权重参数。

误差信息经网络反向传播,在遵循误差逐步减小的规律下更新权值参数直至获得预期的结果

经过训练后, 一组恰当且稳定的权重连接被确定下来. 待预测样本被视为输入层参数, 在前向传播后即可得出输出结果. 即为该网络的预测过程.

反向传播算法的主要步骤包括:首先确定权系数的初始值;然后持续执行以下步骤直至收敛:针对每个样本依次进行计算。

(1)从前往后各层次依次计算各单元Oj储层特性及其研究与预测(2)针对输出层次计算δj储层特性的研究与预测(3)从后往前依次处理各隐含层次δj储层特性的研究与预测(4)逐一计算并存储所有权值修正量的相关性研究与预测过程(5)基于上述方法更新权值的相关性研究与预测以上所述算法是为每个样本调整网络参数;另一种实现途径是先对所有样本分别计算δj后再汇总求和,在此基础上依据总误差信息进行参数调整

神经网络算法是什么?

Introduction --------------------------------------------------------------------------------神经网络是新技术领域中的一个时尚词汇。

很多人听说过这个术语,但却很少有人能够透彻理解其含义。本文旨在介绍神经网络的基本知识及其相关领域,涵盖其功能、结构特点、专业术语和分类等内容,并探讨其实现原理及实际应用

人工神经网络这个词实际上源于生物学领域;准确地说,我们通常称其为人工神经网络(ANNs)。在本文中我会同时采用这两个相互替代的术语进行描述和讨论

一个真正的神经网络包含从几个到数亿个称为神经元的基本组织单元(构成我们大脑的基本细胞)

在这里有一个问题:在生物学领域的神经网络知识了解有限。由此可见,在不同类型的神经网络体系结构之间存在显著的不同。仅限于对其基本组成和功能的认识。

Despite having already been identified as accounting for approximately 50 to 500 distinct neurons, these neurons are mostly derived from peculiar cells.

基本神经元包含有synapses、soma、axon及dendrites。

Synapses负责承担着神经元之间的连接功能;它们并不是通过直接以物理方式连接的方式实现这种联系;相反地,在它们之间存在一个微小的空间通道(也称为间隙),使得电脉冲信号能够从一个神经元顺利传递到另一个神经元。

然后这些电子讯号会被soma接收,并将其内部信号传递给axon。axons则会将这些信号分配到dendrites。

最后,在传递这些信号的过程中,dendrites依次将它们传递给其他synapses,并持续进行下一个循环.在生物学领域中存在基本结构,而在仿生学领域中也存在相应的机制.

每一个神经元都会拥有特定数量的输入,并且同时也会对每个神经元赋予相应的权重(weight)。这些权重作为衡量其输入资料重要程度的标准。

接着,在计算过程中,在计算阶段之后,在完成这一系列步骤后,在整个流程中随后进行的操作中,在这一关键环节中:在完成一系列步骤后,在这一关键环节中,在整个流程中随后进行的操作中:在完成一系列步骤后,在这一关键环节中。

相反情况出现时,则输出值设为0。最终步骤中,该输出将被传递至与其相连的其他神经元,并继续执行余下的计算流程。

Learning --------------------------------------------------------------------------------正如上述所写,问题的核心是权重及临界值是该如何设定的呢?

在众多领域中存在不同种类的训练方法与相应的体系结构,并非单一固定模式即可满足需求。其中广为人知的是回传算法、Δ规则以及柯亨学习模式。

因结构体系而异,则训练的方式也各不相同。大部分规则可划分为两大类——监管模式与非监管模式。监管模式下的训练规则要求指导者对于特定输入应如何产生相应的输出。

在训练过程中,在线学习算法会自动优化所有相关的参数值(这些参数的计算过程极其复杂)。这种情况下,系统将从零开始重新构建模型,并持续优化直到确保网络能够准确地进行数据解析。监管方式的训练模式涉及back-propagation及delta rule。

非监管方式的规则无需教师,因为他们所产生的输出会被进一步评估。

Architecture --------------------------------------------------------------------------------在神经网络中,遵守明确的规则一词是最“模糊不清”的。

由于存在众多不同类型的网络

这些都遵循一套规范化的架构标准。每个网络由若干个神经元组织构成不同的层级。其中输入层主要承担接收外界信息并将其传递至内部的隐藏层(由于这些层级的存在通常不为外界所知)。隐藏层则负责中间数据处理与特征提取工作)。

这些隐蔽层承担必要的计算并传递给输出层的结果, 而观察者则能够看到最终结果. 现在, 请避免深入探讨体系结构这一话题.

获取关于不同神经网络更深入的信息资源,请参考Generation5 essays。虽然我们探讨了神经元、训练流程以及体系结构等关键方面的问题仍有许多未解之谜需要深入研究。

The Artificial Neural Networks(ANNs)play a crucial role in operating alongside patterns, enabling them to perform specific tasks. These networks are typically categorized into classification型 and associative型 structures.

该网络能够接收一组数值并对其进行分类。
例如ONR程序接收一个图像并输出对应的数值。
或者PPDA32程序接收一个坐标并将其归类为A类或B类(其中类别由提供的训练数据确定)。

更多实际应用场景可参考 Military Applications within military radar systems中所描述的。这种雷达系统能够识别出各种车辆或树木。联想模式接收一组数据并输出另一组数据。

例如HIR程序接受一个污损图像并生成与其最为接近的图像。联想模式也可应用于复杂的应用程序,如签名、面部和指纹识别等。

The Rising and Falling of Neural Networks

该系统在类型分类与识别任务中展现出色性能。
该神经网络能够有效地处理异常和非正常输入数据,在众多系统中具有重要意义(如雷达和声波定位系统等)。
大量神经网络借鉴了生物神经网络的结构模式,并模拟其运作机制。

人工神经网络得益于神经系统科学的发展

神经网络的力量源于通过并行计算来处理信息,并且能够同时处理多个数据。由此可见,在不损失性能的情况下模拟并行计算需要大量的计算资源。

神经网络的另一个主要问题是,在构建网络的过程中涉及的条件不够完善 - 涉及的因素包括训练算法的选择、体系结构的设计、每层神经元数量的确定以及层数设置等,并且还包括其他诸多方面的考量。

因此,在时间价值日益凸显的情况下, 大部分公司无法避免地需要为神经网络开发解决方案.

NN 神经网络(NN),即 Neural Network(人工神经网络 ANNs)。神经元(neurons)通过神经键(synapses)相互连接形成自组织网络(self-organizing networks),用于建模热动态性网络模型(networks modelling thermodynamic properties)。+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++我对所谓的"网格算法"一词感到陌生;通常提及的是"网格计算"这一概念。随着互联网技术的快速发展及其应用领域的不断扩大"网格计算"特别适用于解决复杂科学计算问题的新一代分布式并行处理技术

这种新的运算模式借助互联网将分布在不同地理位置上的电脑集合成为一个虚拟超级计算机系统,每个参与运算的数据处理设备都相当于一个独立的核心节点,而整个运算系统则由数以万计这些节点共同构成的一个网络平台组成,因此这种方法被称为网格计算技术

这种组织结构下的"虚拟的超级计算机"具有两个主要优势:第一点是它展现出极强的数据处理能力;第二点则是能够充分利用网络上的闲置计算资源。

从本质上说,在网格中将整个网络进行了整合,并将其构建成一个规模宏大的超级计算机系统。这使得计算资源、存储资源、数据资源、信息资源以及专家资源整合并实现充分共享。

神经网络算法可以求最优解嘛?

神经网络可以做优化问题,但不一定能找到最优解。

认知活动即为遵循逻辑规则展开推理的过程。它首先将信息转化为概念,并将其以符号形式表达出来。接着按照符号运算的顺序方式展开逻辑推理。因此将其编译为顺序指令后交由计算机依次处理。

直观性思维的作用就是将信息按神经元的兴奋模式整合起来。这种思维方式的核心之处体现在两个关键点上:一是信息如何以神经元的兴奋模式进行组织;二是如何在神经系统中实现这一组织方式。

信息加工是基于神经元之间协同作用的动力学系统来实现的。神经网络体系:研究表明,人类大脑的主要思维方式主要包括形式化逻辑推理、具象化直觉感知以及突发性的灵感闪现三种类型

人工神经网络可以被视为人类思维活动的一种模仿方式。它是一个非线性动力学系统,在其主要特征体现在信息的分散式记忆机制以及同时进行的信息加工过程中。

尽管单个神经元的结构非常简单、功能较为有限,但由大量神经元组成的网络系统却能够表现出异常丰富的行为。

卷积神经网络算法是什么?

一维构筑、二维构筑、全卷积构筑。

卷积神经网络(CNN)是一种包含卷积计算且具备深度结构的前馈神经网络,在深度学习领域占据重要地位的核心算法之一。

卷积神经网络具备表示学习能力(representation learning capability),能够基于层级结构实现输入信息的平移不变性分类(shift-invariance-based classification)。这种架构因此得名“平移不变人工神经网络(Shift-Invariant Artificial Neural Networks, SIANN)”。

卷积神经网络中的连接结构:在卷积神经网络中,卷积层之间的联系被定义为稀疏链接(sparse links),这与前馈神经网络中的全连接结构不同,在全连接结构中所有节点之间都会建立联系,在这里只有部分节点会与相邻层产生联系。

具体而言,在卷积神经网络第l层特征图中每一个像素(神经元)都是由上一层卷积核所覆盖的空间区域内的像素通过线性运算得到的结果

稀疏连接在卷积神经网络中起到了正则化的功能,在提高模型稳定性的同时也增强了其泛化能力。这种设计不仅能够有效防止过拟合现象的发生,并且通过减少整体模型参数的数量来降低运算复杂度。此外,在提升模型对数据的学习效率的同时还能够降低运算过程中的内存占用需求。

在卷积神经网络中,在同一个特征图通道中每个像素都拥有一个卷积核权重系数,并被该性质称为权重共享(weight sharing)。

通过权重共享机制可以区分卷积神经网络与其他局部连接类型的神经网络,在这些网络中尽管采用了稀疏连接策略(即不同的位置之间并不直接相连),但各处之间的权重并不相同。此外,在减少模型参数数量的同时也实现了对模型复杂度的有效控制,并且这种设计方式在一定程度上有助于提升模型的泛化能力

在全连接网络框架下分析卷积神经网络结构特征时发现,在卷积神经网络中各层间的稀疏连接关系以及权值共享机制均可被视为两种极端化的先验假设(prior),具体而言,在隐含层神经元所对应的权值分布中,在其感受野范围以外的所有权重参数值恒定为零(其中该感受野范围可在空间维度上进行平移操作);同时,在同一通道内各相关神经元所对应的权重参数具有完全一致性

BP人工神经网络方法

(一)方法原理人工神经网络是包含大量类似于人脑神经元的简单处理单元之间建立复杂而广泛关系的复杂系统。理论研究与实际应用的结果验证了,在信息处理任务中基于神经网络的方法较传统的模式识别技术更具优势

在神经网络中,人工神经元被视为基本处理单元。信息被接收为x₁, x₂,…, xₙ的形式。其中ωij代表从第i个神经元到第j个神经元的连接强度或称为权重。

神经元接收输入信号X=(x₁,x₂,…,xₙ),并与其对应的权重矩阵W={ω_ij}进行点积运算。随后将计算结果与预设阈值进行比较,并经由预设激活函数f的作用即可获得该神经元对应的输出Oi

常见的激活函数为Sigmoid型。

在地球物理勘探概论中,人工神经元模型中存在如下关系:设xi表示第i个输入元素,则n维输入向量X中的第i个分量即对应于xi这一特征值;其中ω_i代表第i个输入与其处理单元之间的连接权重系数;而θ则是该处理单元内部的作用阈值参数;最终所得的结果输出记作y即为此处理单元的输出结果。

以广泛应用于各个领域的BP神经网络为代表的人工智能模型中

在正向传播初期阶段,在所有连接权值上设置随机数值作为初始值。随后从给定的模式集中随机选取一个样本作为输入数据,并将其传递至隐含层进行处理。经过隐含层的处理后,在输出层获得该样本对应的结果数值。每个神经元的状态仅受上一层神经元状态的影响。

此时,在输出值与期望值之间存在显著偏差的情况下,在误差反向传递的过程中进行调整以减少这种偏差。该调整过程会持续进行下去,并且会一直进行到对整个模式集的所有模式完成计算为止。这样一来,在这一轮训练中所导致的权重变化将被记录为Δωij。

在对网络中的各神经元权重进行调整后,通过正向传播途径计算出输出结果;当实际输出与预期目标之间存在差异时,将引发新的权重优化过程;而正向传导和反向传递的过程不断重复执行直至达到收敛状态,在此之后最终确定了稳定后的连接权重和激活阈值

(二)BP神经网络计算步骤
(1)首先,在训练过程中需要对网络中的权重参数W和激活门限\theta进行初始设置。
W^{(0)}=\text{任一实数}
\theta^{(0)}=\text{任一实数}
(2)然后将输入样本X代入网络进行前向传播计算。

(3)正向传播的具体步骤如下:首先进行前向传播;然后推导出该网络的实际输出结果。具体来说就是:基于输入样本数据、连接权重以及阈值参数,在神经网络模型中完成运算过程。

其中f被定义为一种阈值型逻辑函数亦即所述之模型中f被定义为一种阈值型逻辑运算符它通常采用Sigmoid形式作为该类型的激活函数具体而言其形式可表示为σ(z)=1/(1+e^{-z}})其中σ(z)代表神经元输出而z则表示输入信号经过加权后之总和在此框架下参数包括权重系数w_j以及每个神经元的偏置项b_j这些参数共同决定了系统的行为模式特别地b_0常被用来调节整个系统的非对称性以避免出现死单元现象

小θ₀将使其Sigmoid函数接近阈值逻辑单元特征;大θ₀则会使Sigmoid函数趋于平缓;通常取θ₀=1

在地球物理勘探学中进行评估时,在式(4)中:tpk代表理论期望值;Opk代表实际观测结果;p表示第p个样本数据点;k则对应于第k个预测节点的位置。

(5)在误差反向传播过程中调整权值参数地球物理勘探概论式中:地球物理勘探概论地球物理勘探概论(6)评估收敛性。若误差小于设定阈值,则终止流程;否则返回步骤(2)。

基于塔北雅克拉地区S4井作为已知样本,在研究中选取了氧化还原电位以及放射性元素类(包括Rn、Th、Tc、U)等六个指标,并结合地震反射构造面这一关键参数作为分类识别依据。

构造面的变化反映了局部构造的起伏状态,在这些局部隆起的位置上可能存在油气运移与富集的理想区域;它也可以被视为影响含油气性的重要因素之一

对该地区采用了多种磁场探测手段,在筛选主控特征指标时,“未被选为主控特征指标的某些参数”可能与这些相关因素有关。

在应用神经网络方法进行判别之前,在应用Karhunen-Loeve变换(K-L变换)的基础上进行数据分析与特征提取工作。位于测区西南部的5线25点位置上设置的S4井是本区内唯一已知的位置信息井。

该井于侏罗系地层中深入至5390.6米处并探测到40.6米厚的油气分布;同时,在震旦系地层深处达到5482米时探测到了厚度达58米的油气资源。

在S4井周围布置九个采样点(具体来说即是位于4至6条线上分布于23至25号的位置),将其确定为已探明油气区域的训练样本数据集;鉴于区域内现有钻井均为已知情况,并无空白区域可供参考,在这种情况下不得不依赖地质调查报告的数据信息来筛选出14至16条线上分布于55至57号位置作为无油气区域训练样本的选择依据。

BP网络经过迭代训练达到17174次迭代次数,在线性回归模型中累计误差降至0.0001水平并获得良好的收敛效果。基于训练后建立的神经网络模型对测试样本进行分类识别后得到实验结果如图6-2-4所示

根据刘天佑等人的研究(1997年),图6-2-4展示了塔北雅克拉地区BP神经网络的聚类结果。在预测值超过0.9的情况下,识别出5个明显的远景区区域。其中测区南部的①号远景区与已知的S4油田相符;而位于地震勘探确定的托库构造带内的②、③号远景区,则分布于沙雅隆起带的东侧部分;这两个构造位于沙雅隆起带的东侧部分,并且其西段对应的是1984年钻遇高产油气流的Sch2井位置;另外位于大涝坝构造中的④、⑤号远景区,则属于yh油田的部分

全部评论 (0)

还没有任何评论哟~