人工神经网络的介绍外文翻译资料

 2022-09-07 11:09

英语原文共 17 页,剩余内容已隐藏,支付完成后下载完整资料


人工神经网络的介绍

1引言

人工神经网络(ANN)是一种具有模拟功能的数学模型结构和生物神经网络。人工神经网络的每个基本构建块是人工神经元,即,一个简单的数学模型(函数)。这种模式有三个简单的规则集:乘法,加法和激活。在人工神经入口处的输入加权意味着每个输入值乘以各个权重。在人工神经元的中间部分是总和功能可以概括所有的加权输入和偏差。在人工神经的总和的出口此前加权输入偏置传递槽激活函数,也被称为传递函数(图1)。

图1 人工神经的工作原理。

虽然人工神经的工作原理和一套简单的规则没有什么特别的地方,但当我们开始他们将互连人工神经网络时(图2)就需要这些模型的全部潜力、计算能力来实现。这些人工神经网络使用简单的事实,延伸出来的复杂性只是一些基本的简单的规则。

图2 简单的人工神经网络示例

为了充分得到数学复杂性的优点,可以通过从个人人工神经元的互连来实现,而不是仅仅使系统复杂难以管理,因此我们通常不随机互连这些人工神经元。在过去,研究人员想出了人工神经网络的几个“标准化”拓扑图。这些预定义的拓扑图可以帮助我们更容易使用,更快捷,更有效的解决问题。不同类型的人工神经网络拓朴适合用于解决不同类型的问题。确定给定的问题的类型后,我们需要决定人工神经网络的拓扑结构,我们要使用和再微调它。我们需要微调拓扑本身和它的参数。

人工神经网络的微调拓扑并不意味着我们就可以开始使用我们的人工神经网络,它仅仅是一个前提条件。在我们可以用我们的人工神经网络之前,我们需要教它解决特定类型的问题。正如生物神经网络可以从他们的环境得到投入的基础上学习他们的行为/响应的那样,人工神经网络可以做同样的事。有三个主要的学习范例:监督学习,非监督学习和强化学习。和我们选择学习模式类似,我们选择人工神经网络拓扑 - 基于我们正在努力解决这个问题。虽然学习范式的原理不同,但他们都有一个共同点:在“学习资料”和“学习规则”的基础上(选择成本函数)人工神经网络要达到的目的是根据输入信号得到正确的输出响应。

在选择人工神经网络的拓扑结构,微调拓扑,当人工神经网络具有学习正确的行为之后,我们可以开始使用它来解决给定的问题。人工神经网络已经在使用了一段时间,现在,我们可以发现他们在化学,游戏,雷达系统,汽车工业,航天工业,天文学,遗传学,银行,欺诈检测等等的过程控制,并解决工作领域像函数逼近,回归分析,时间序列预测,分类,模式识别,决策,数据处理,过滤,集群等一些问题。

由于人工神经网络的话题是复杂的,这一章只是信息的性质,我们鼓励读者新手找到人工神经网络的详细信息。

2 人工神经

人工神经是每一个人工神经网络的基本构建块。其设计和功能是从包括脑,脊髓和外周神经节的生物神经元即生物神经网络(系统)的基本构建块的观察而得。在设计和功能的相似性可以在图3中可以看到。其中图的左侧代表其胞体,树突和轴突,其中右侧代表了其输入,重量,传递函数,偏差和输出的人工神经生物神经元。

图3 生物和人工神经设计

在生物神经元信息进入情况下,通过树突神经元,胞体处理信息,并通过轴突传递它。在人工神经的情况下,信息经由被加权(每个输入可以用重量来单独地乘以)输入进入人工神经。人工神经本身是求和加权的输入,偏压和“进程”使用传递函数的总和。在最后的人工神经传递输出(多个)处理的信息。人工神经元的简单模型益处可以看出,低于其数学描述:

(1)

其中:

  • (k)是输入值,离散时间k取值从0到m
  • (k)是权重值,离散时间k取值从0到m
  • b 是偏差
  • F 是一个传递函数
  • 是离散的时间产值

从人工神经的模型和它的方程,我们看出的模型的主要未知变量是其传递函数。传递函数定义的是人工神经元的性质,可以是任何的数学函数。我们选择它是在人工神经(人工神经网络)需要解决的基础上,在大多数情况下,我们选择下面功能的一组:阶跃函数,线性函数和非线性(S型)函数。

阶跃函数是仅具有两个可能的输出值(例如零和一)二元函数。
这意味着,如果输入的值符合特定阈值则结果输出一个值,如果特定的门槛不符合则结果输出另外一个值。情况可以用方程(2)所述。

使用这种传递函数类型的人工神经我们称之为人工神经感知。感知用于解决分类问题,它应该是人工神经网络的最后一层。在线性传递函数人工神经的情况下,过度的加权输入和偏差之和做简单的线性变换。这样的人工神经是不同的感知器在人工神经网络的输入层最常用的。我们最常使用的非线性函数的S形函数。S形函数容易计算衍生物,这在人工神经网络中计算重量更新时这可能是重要的。

3 人工神经网络

当两个或多个人工神经元在一起时,我们就称之为人工神经网络。人工神经网络的单一人工神经在解决实际生活中的问题时几乎没有任何用处。事实上人工神经网络能够通过他们的基本构建模块处理信息以非线性,分布式的,平行和本地方式来解决复杂的现实生活中的问题(人为神经元)。

单个人工神经元相互连接的方式称为人工神经网络的拓扑,建筑或图形结构。该互连可以做的事实在众多可能的拓扑结果被分成两个基本类。 图4显示了这两种拓扑结构;该图的左侧表示简单的前馈拓扑结构(非循环图),其中信息从单一方向输入,该图的右侧表示简单复发拓扑(半环状图表)输出的一些信息,不仅在一个方向流动从输入到输出,而且在相反的方向也可以有信息的流动。同时观察图4我们需要提及的是更容易处理和在数学层的人工神经网络,单个神经元的描述。上图4我们可以看到输入,隐藏和输出层。

图4前馈(FINN)和复发(RNN)人工神经网络拓扑

在使用这种人工神经网络解决给定的问题之前,我们选择和建立我们的人工神经网络的拓扑结构,其实我们只完成了任务的一半。正如生物神经网络需要从给定输入环境中学习正确的反应,人工神经网络需要做的是一样的。因此,下一步是学习的是人工神经网络的适当反应,这可以通过学习来实现(监督,不受监督和强化学习)。无论我们使用哪种方法,学习任务是设置在学习数据以最小化所选择的成本函数的单位重量的值和偏差。

3.1前馈人工神经网络

前馈拓扑人工神经网络被称为前馈神经网络,因此只有一个条件:信息必须仅在一个方向从输入没有背回路流到输出。有关于层数,在个别人工神经或单个人工神经元之间的连接数用于传递函数的类型没有限制。最简单的前馈神经网络是一个单一的感知,这只是能够学习线性可分问题。用于分析描述目的简单的多层前馈神经网络(方程(3),(4)和(5))示于图5。

图5前馈人工神经网络

正如上图5所示,和相应的(3),(4)和(5)公式分析描述简单的前馈人工神经网络参数的优化问题,通过解决相对较长的数学描述是不切实际的。分析描述可以在任何复杂的人工神经网络在实际中使用,我们使用计算机和专用软件,可以帮助我们建立,数学方法描述和优化任何类型的人工神经网络。

3.2复发人工神经网络

经常性拓扑人工神经网络被称为复发人工神经网络。它类似于前馈神经网络对背部的循环没有限制。在这些情况下,信息在一个方向上不再传输但它也向后传送。这会创建网络这使得它能够显示出动态时间行为的内部状态。复发人工神经网络可以利用其内部的内存来处理输入的任何序列。 图6显示完全回归神经网络和人工神经互连的复杂性。

反复人工神经网络的最基本的拓扑结构是完全人工复发网络,每一个基本构建块(人工神经)直接连接在所有方向的基本构建块。其他经常性人工神经网络等的Hopfield,艾尔曼,约旦,双向等网络是复发人工神经网络的特殊情况。

图6完全复发人工神经网络

3.3Hopfield型人工神经网络

一个Hopfield型人工神经网络是一种用于存储一个或多个稳定目标矢量的复发人工神经网络。这些稳定的载体可以被看作是当与作为线索到网络存储器类似载体提供的网络记忆。这些二进制单位只取两个不同的值,对于它们的状态由该单位的输入是否超过它们的阈值来确定。二进制单元可以取1或0,1或-1。因此有二进制单元激活两个可能的定义(公式(6)和(7)):

其中:

●是从单元j到单元i的连接权重

●是单元j的状态

●是单位i的阈值

在谈到连接我们需要提及的是有典型的两限制:任何单位都有自身()的连接和连接是对称的,即。

该权值要求必须是对称的,通常使用的,因为它必须在以下的激活规则能量函数减小单调。如果使用非对称权重的网络可能会出现一些周期性的或者混乱的行为,训练一个Hopfield型人工神经网络(图7)包括降低规定,人工神经网络应该有记住的能力。

图7.简单的“一个神经元”Hopfield型人工神经网络。

3.4埃尔曼和约旦人工神经网络

埃尔曼神经网络也称为简单递归网络,它是反复人工神经网络的特殊情况。它不同于在该第一层具有一个经常性连接常规的两层的网络的情况。这是一个具有隐含层到输入层槽背环所谓的上下文单元(图8)一个简单的三层人工神经网络。这种类型的人工神经网络具有内存允许它同时检测到并产生随时间变化的模式。

该埃尔曼人工神经网络通常隐藏在其乙状结肠人工神经元层,并在其输出层线性人工神经元。人工神经元的这种组合传递函数可以近似用任意精度任何功能只要有足够的人工神经元的隐藏层。能够存储信息埃尔曼人工神经网络能够产生时空格局以及空间格局来应对他们的。约旦网络(图9)和埃尔曼网络类似。 唯一不同的是这种情况下的单位是从输出层,而不是隐藏层供给。

图8.埃尔曼人工神经网络

图9.约旦人工神经网络

3.5长短期记忆

长短期记忆是反复人工神经网络拓扑结构之一。在它可以吸取其经验基础反复人工神经网络的对比过程中,分类和预测时间序列的重要事件之间未知大小的很长一段时间的滞后。这使长短期记忆跑赢其他经常性人工神经网络,隐马尔可夫模型等顺序学习方法。

长短期记忆人工神经网络是长短期记忆块能够为任何时间的长短记忆的价值构建。这是通过确定当输入是足够显著记住它的阈值,当继续记住或者忘记它,并且当输出值来实现的。

长短期记忆块的体系结构示于图10,在输入层乙状结肠单位。在输入层处理顶端神经元输入值是否被发送到存储单元取决于从输入层的顶部第二神经元的计算值。从输入层上方的第三神经元决定存储器单元保持(记忆)多久和其值与底最神经元确定何时从存储器值应该被释放到输出端。在第一隐藏层和输出层的神经元都在做各自简单的输入乘法,并在其输入第二个神经元隐藏层形成计算机简单线性函数。第二隐层的输出被反馈到输入和第一隐层,以帮助决策。

图10.简单的长短期记忆人工神经网络(块)

3.6双向人工神经网络(BI-ANN)

双向人工神经网络(图11)被设计来预测复杂的时间序列。它们由直接执行和反向(双向)改造两个相互连接的神经(子)网络。人工神经网络分互连通过两个动态的人工神经元能够记住他们的内部状态来完成的。这种类型的处理信号的未来和过去值之间的互连增加的是时间序列预测能力。因此,这些人工神经网络不仅预测输入数据的未来值,而且有过去的值。这就需要两相学习;在第一阶段,我们授人神经子网预测未来,并在第二个阶段,我们教第二人工神经网络回忆过去。

3.7自组织映射(SOM)

自组织图是与前馈网络相关的人工神经网络,但它需要被告知,这种类型的结构是神经元和动机的安排有根本的不同。神经元常见的布置是在一个六角形或矩形网格(图12)。自组织图是在比较中,它们使用邻域函数保留输入空间这与拓扑性质等人工神经网络不同。他们使用无监督学习范例以产生训练样本的输入空间的低维,离散表示,使他们用于可视化高维数据的低维次地图特别有用。这样的网络可以学习相应的检测违规行为和在他们的投入和调整其未来应对该输入的相关性。

图11.双向人工神经网络

图12.自组织映射在矩形(左)和六方(右)网格

正如其他人工神经网络需要学习一样,它们可以使用相同的组织映射;其中,学习的目标是使人工神经网络的不同部分,以同样地特定输入模式作出响应。同时调节神经元的权值,在学习它们被初始化要么小的随机值要么由两个最大的主成分的特征向量所跨越的子空间均匀采样。初始化完成后人工神经网络需要用大量实例载体喂食。所有的欧几里德距离计算的权向量,并与最相似的输入权重向量的神经元被称为最好的匹配单元。最好匹配单元和神经元接近它的重量朝向输入矢量调整。这个过程每一个输入矢量重复一个周期。学习阶段后,我们做所谓的映射(人工神经网络的使用),并在此阶段的唯一一个神经元的权重向量最接近输入向量神经元。输入和加权矢量之间的距离,再次通过计算它们之间的欧几里得距离来确定。

3.8随机人工神经网络

随机人工神经网络是一种人工智能工具。它们通过引入随机变化到网络构建,或者通过给予该网络的神经元随机传递函数,或者通过给他们随机权重。这使得它们用工具来优化问题,因为随机波动帮助它从极小局部逃脱。由使用随机传递函数建立的随机神经网络通常称为波尔兹曼机。

3.9物理人工神经网络

今天大多数的人工神经网络是基于软件的,但这并不排除在物理元素基础上的这种可能性,用可调电流电阻材料来创建它们。物理人工神经网络的历史可以追溯到1960年的第一个物理人工神经网络,用忆阻器来构成存储器晶体管的创建。忆阻器模拟人工神经元突触。虽然这些人工神经网络可进行商业化,但由于其无能的可扩展性,他们并没有持续多久。这个尝试之后的另几个尝试,如试图创建基于纳米技术或相变材料物理人工神经网络。

4.学习

有三个主要的学习范式:监督学习,非监督学习和强化学习。通常它们可通过任何给定类型的人工神经网络体系结构的使用。每个学习模式有许多训练算法。

4.1

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[146669],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。