人工神经网络模型.ppt
《人工神经网络模型.ppt》由会员分享,可在线阅读,更多相关《人工神经网络模型.ppt(144页珍藏版)》请在课桌文档上搜索。
1、2023/12/7,1,第七讲 人工神经网络模型,随着人工神经网络应用研究酌不断深入,新的神经网络模型不断推出。现有的神经网络棋型已达近百种。在智能控制领域中,应用最多的是以下几种基本模型和它们的改进型,即前向多层感知器(BP网络)、HopfteN网络,自组织神经网络,动态递归网络,联想记忆网络(BAM)等神经网络的基本理论主要涉及到稳定性、学习算法、动态性能等几个方面。神经网络的特点:非线性 分布处理 学习并行和自适应 适用于多变量系统,2023/12/7,2,神经网络的研究内容 1)神经元模型 2)神经网络结构 3)神经网络学习方法,2023/12/7,3,人工神经元的基本构成,人工神经元
2、模拟生物神经元的一阶特性。输入:X=(x1,x2,xn)联接权:W=(w1,w2,wn)T网络输入:net=xiwi向量形式:net=XW,2023/12/7,4,激活函数与M-P模型 线性函数、非线性斜面函数、阈值函数 S形函数 M-P模型,2023/12/7,5,M-P模型,McCullochPitts(MP)模型,也称为处理单元(PE),2023/12/7,6,3.1.3 人工神经网络的拓扑特性,连接的拓扑表示,2023/12/7,7,1 联接模式,用正号(“+”,可省略)表示传送来的信号起刺激作用,它用于增加神经元的活跃度;用负号(“-”)表示传送来的信号起抑制作用,它用于降低神经元的
3、活跃度。层次(又称为“级”)的划分,导致了神经元之间的三种不同的互连模式:,2023/12/7,8,1 联接模式,1、层(级)内联接层内联接又叫做区域内(Intra-field)联接或侧联接(Lateral)。用来加强和完成层内神经元之间的竞争2、循环联接反馈信号。,2023/12/7,9,1 联接模式,3、层(级)间联接 层间(Inter-field)联接指不同层中的神经元之间的联接。这种联接用来实现层间的信号传递前馈信号反馈信号,2023/12/7,10,2 网络的分层结构,单级网 简单单级网,2023/12/7,11,简单单级网,2023/12/7,12,简单单级网,W=(wij)输出层
4、的第j个神经元的网络输入记为netj:netj=x1w1j+x2w2j+xnwnj其中,1 j m。取NET=(net1,net2,netm)NET=XWO=F(NET),2023/12/7,13,单级横向反馈网,2023/12/7,14,单级横向反馈网,V=(vij)NET=XW+OVO=F(NET)时间参数神经元的状态在主时钟的控制下同步变化考虑X总加在网上的情况NET(t+1)=X(t)W+O(t)VO(t+1)=F(NET(t+1)O(0)=0考虑仅在t=0时加X的情况。稳定性判定,2023/12/7,15,多级网,2023/12/7,16,层次划分 信号只被允许从较低层流向较高层。层
5、号确定层的高低:层号较小者,层次较低,层号较大者,层次较高。输入层:被记作第0层。该层负责接收来自网络外部的信息,2023/12/7,17,第j层:第j-1层的直接后继层(j0),它直接接受第j-1层的输出。输出层:它是网络的最后一层,具有该网络的最大层号,负责输出网络的计算结果。隐藏层:除输入层和输出层以外的其它各层叫隐藏层。隐藏层不直接接受外界的信号,也不直接向外界发送信号,2023/12/7,18,约定:输出层的层号为该网络的层数:n层网络,或n级网络。第j-1层到第j层的联接矩阵为第j层联接矩阵,输出层对应的矩阵叫输出层联接矩阵。今后,在需要的时候,一般我们用W(j)表示第j层矩阵。,
6、2023/12/7,19,多级网h层网络,2023/12/7,20,多级网,非线性激活函数 F(X)=kX+CF3(F2(F1(XW(1)W(2)W(3),2023/12/7,21,循环网,2023/12/7,22,循环网,如果将输出信号反馈到输入端,就可构成一个多层的循环网络。输入的原始信号被逐步地“加强”、被“修复”。大脑的短期记忆特征看到的东西不是一下子就从脑海里消失的。稳定:反馈信号会引起网络输出的不断变化。我们希望这种变化逐渐减小,并且最后能消失。当变化最后消失时,网络达到了平衡状态。如果这种变化不能消失,则称该网络是不稳定的。,2023/12/7,23,3 存储与映射,空间模式(S
7、patial Model)时空模式(Spatialtemporal Model)空间模式三种存储类型1、RAM方式(Random Access Memory)随机访问方式是将地址映射到数据。2、CAM方式(Content Addressable Memory)内容寻址方式是将数据映射到地址。3、AM方式(Associative Memory)相联存储方式是将数据映射到数据。,2023/12/7,24,3 存储与映射,后续的两种方式是人工神经网络的工作方式。在学习/训练期间,人工神经网络以CAM方式工作;权矩阵又被称为网络的长期存储(Long Term Memory,简记为LTM)。网络在正常工
8、作阶段是以AM方式工作的;神经元的状态表示的模式为短期存储(Short Term Memory,简记为STM)。,2023/12/7,25,4 人工神经网络的训练,人工神经网络最具有吸引力的特点是它的学习能力。1962年,Rosenblatt给出了人工神经网络著名的学习定理:人工神经网络可以学会它可以表达的任何东西。人工神经网络的表达能力大大地限制了它的学习能力。人工神经网络的学习过程就是对它的训练过程,2023/12/7,26,1 无导师学习,无导师学习(Unsupervised Learning)与无导师训练(Unsupervised Training)相对应 抽取样本集合中蕴含的统计特性
9、,并以神经元之间的联接权的形式存于网络中。,2023/12/7,27,1 无导师学习,2023/12/7,28,2 有导师学习,有导师学习(Supervised Learning)与有导师训练(Supervised Training)相对应。输入向量与其对应的输出向量构成一个“训练对”。有导师学习的训练算法的主要步骤包括:1)从样本集合中取一个样本(Ai,Bi);2)计算出网络的实际输出O;3)求D=Bi-O;4)根据D调整权矩阵W;5)对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。,2023/12/7,29,有导师学习,2023/12/7,30,其它,再例学习外部环境对系
10、统的输出结果给出评价,学习系统通过强化受奖的动作来改善自身性能。学习规则误差纠错学习Hebb学习竞争学习,2023/12/7,31,3.1.4 感知器,1 感知器与人工神经网络的早期发展 2 感知器的学习算法 2.1 离散单输出感知器训练算法 2.2 离散多输出感知器训练算法2.3 连续多输出感知器训练算法3线性不可分问题3.1 异或(Exclusive OR)问题 3.2 线性不可分问题的克服,实现!,问题的发现与解决!,2023/12/7,32,1 感知器与ANN的早期发展,McCulloch 和Pitts 1943年,发表第一个系统的ANN研究阈值加权和(M-P)数学模型。1947年,开
11、发出感知器。1949年,提出Hebb学习律。,单输出的感知器(M-P模型),2023/12/7,33,1 感知器与ANN的早期发展,1962年,Rosenblatt宣布:人工神经网络可以学会它能表示的任何东西,2023/12/7,34,2 感知器的学习算法,感知器的学习是有导师学习 感知器的训练算法的基本原理来源于著名的Hebb学习律 基本思想:逐步地将样本集中的样本输入到网络中,根据输出结果和理想输出之间的差别来调整网络中的权矩阵,2023/12/7,35,2.1离散单输出感知器训练算法,二值网络:自变量及其函数的值、向量分量的值只取0和1函数、向量。权向量:W=(w1,w2,wn)输入向量
12、:X=(x1,x2,xn)训练样本集:(X,Y)|Y为输入向量X对应的输出,2023/12/7,36,算法3-1离散单输出感知器训练算法,1.初始化权向量W;2.重复下列过程,直到训练完成:2.1 对每个样本(X,Y),重复如下过程:2.1.1 输入X;2.1.2 计算o=F(XW);2.1.3 如果输出不正确,则当o=0时,取 W=W+X,当o=1时,取 W=W-X,2023/12/7,37,2.2离散多输出感知器训练算法,样本集:(X,Y)|Y为输入向量X对应的输出输入向量:X=(x1,x2,xn)理想输出向量:Y=(y1,y2,ym)激活函数:F 权矩阵W=(wij)实际输出向量:O=(
13、o1,o2,om),2023/12/7,38,算法3-2离散多输出感知器训练算法,1.初始化权矩阵W;2.重复下列过程,直到训练完成:2.1 对每个样本(X,Y),重复如下过程:2.1.1 输入X;2.1.2 计算O=F(XW);2.1.3 for j=1 to m do 执行如下操作:if oj yj then if oi=0 then for i=1 to n wij=wij+xi else for i=1 to n do wij=wij-xi,2023/12/7,39,算法3-2离散多输出感知器训练算法,算法思想:将单输出感知器的处理逐个地用于多输出感知器输出层的每一个神经元的处理。第1
14、步,权矩阵的初始化:一系列小伪随机数。,2023/12/7,40,算法3-2离散多输出感知器训练算法,第2步,循环控制。方法1:循环次数控制法:对样本集执行规定次数的迭代改进分阶段迭代控制:设定一个基本的迭代次数N,每当训练完成N次迭代后,就给出一个中间结果,2023/12/7,41,算法3-2离散多输出感知器训练算法,方法2:精度控制法:给定一个精度控制参数精度度量:实际输出向量与理想输出向量的对应分量的差的绝对值之和;实际输出向量与理想输出向量的欧氏距离的和“死循环”:网络无法表示样本所代表的问题,2023/12/7,42,算法3-2离散多输出感知器训练算法,方法3:综合控制法:将这两种方
15、法结合起来使用 注意:精度参数的设置。根据实际问题选定;初始测试阶段,精度要求低,测试完成后,再给出实际的精度要求。,2023/12/7,43,2.3 连续多输出感知器训练算法,用公式wij=wij+(yj-oj)xi取代了算法3-2 第2.1.3步中的多个判断yj与oj之间的差别对wij的影响由(yj-oj)xi表现出来好处:不仅使得算法的控制在结构上更容易理解,而且还使得它的适应面更宽,2023/12/7,44,算法3-3 连续多输出感知器训练算法,1用适当的小伪随机数初始化权矩阵W;2.初置精度控制参数,学习率,精度控制变量d=+1;3While d do 3.1 d=0;3.2 for
16、 每个样本(X,Y)do3.2.1 输入X(=(x1,x2,xn));3.2.2 求O=F(XW);3.2.3 修改权矩阵W:for i=1 to n,j=1 to m dowij=wij+(yj-oj)xi;3.2.4 累积误差for j=1 to m dod=d+(yj-oj)2,2023/12/7,45,算法3-3 连续多输出感知器训练算法,1、程序实现:、d、i、j、n、m为简单变量来表示,W为n行m列的二维数组。样本集二维数组2、系统的调试3、Minsky在1969年证明,有许多基本问题是感知器无法解决4、问题线性可分性可能与时间有关5、很难从样本数据集直接看出问题是否线性可分6、未
17、能证明,一个感知器究竟需要经过多少步才能完成训练。,2023/12/7,46,3 线性不可分问题,3.1 异或(Exclusive OR)问题,2023/12/7,47,用于求解XOR的单神经元感知器,2023/12/7,48,线性不可分函数,2023/12/7,49,线性不可分函数,R.O.Windner 1960年,2023/12/7,50,3.2 线性不可分问题的克服,用多个单级网组合在一起,并用其中的一个去综合其它单级网的结果,我们就可以构成一个两级网络,该网络可以被用来在平面上划分出一个封闭或者开放的凸域来一个非凸域可以拆分成多个凸域。按照这一思路,三级网将会更一般一些,我们可以用它
18、去识别出一些非凸域来。解决好隐藏层的联接权的调整问题是非常关键的,2023/12/7,51,两级单输出网在n维空间中划分出m边凸域,2023/12/7,52,上次课内容回顾:学习算法,离散单输出感知器训练算法W=W+X;W=W-XW=W+(Y-O)X离散多输出感知器训练算法Wj=Wj+(yj-oj)X连续多输出感知器训练算法wij=wij+(yj-oj)xi,2023/12/7,53,上次课内容回顾:线性不可分问题,线性不可分问题的克服两级网络可以划分出封闭或开放的凸域多级网将可以识别出非凸域隐藏层的联接权的调整问题是非常关键,2023/12/7,54,3.4 BP网络,主要内容:BP网络的构
19、成隐藏层权的调整分析Delta规则理论推导算法的收敛速度及其改进讨论BP网络中的几个重要问题 重点:BP算法难点:Delta规则的理论推导,2023/12/7,55,3.4 BP网络,3.4.1 概述 3.4.2 基本BP算法 3.4.3 算法的改进 3.4.4 算法的实现 3.4.5 算法的理论基础 3.4.6 几个问题的讨论,2023/12/7,56,3.4.1 概述,1、BP算法的出现非循环多级网络的训练算法UCSD PDP小组的Rumelhart、Hinton和Williams1986年独立地给出了BP算法清楚而简单的描述1982年,Paker就完成了相似的工作1974年,Werbos
20、已提出了该方法2、弱点:训练速度非常慢、局部极小点的逃离问题、算法不一定收敛。3、优点:广泛的适应性和有效性。,2023/12/7,57,3.4.2 基本BP算法,3.4.2.1 网络的构成 神经元的网络输入:neti=x1w1i+x2w2i+xnwni神经元的输出:,2023/12/7,58,输出函数分析,应该将net的值尽量控制在收敛比较快的范围内可以用其它的函数作为激活函数,只要该函数是处处可导的,2023/12/7,59,网络的拓扑结构,2023/12/7,60,网络的拓扑结构,BP网的结构输入向量、输出向量的维数、网络隐藏层的层数和各个隐藏层神经元的个数的决定实验:增加隐藏层的层数和
21、隐藏层神经元个数不一定总能够提高网络精度和表达能力。BP网一般都选用二级网络。,2023/12/7,61,网络的拓扑结构,2023/12/7,62,3.4.2.2 训练过程概述,样本:(输入向量,理想输出向量)权初始化:“小随机数”与饱和状态;“不同”保证网络可以学。1、向前传播阶段:(1)从样本集中取一个样本(Xp,Yp),将Xp输入网络;(2)计算相应的实际输出Op:Op=Fl(F2(F1(XpW(1)W(2)W(L),2023/12/7,63,3.4.2.2 训练过程概述,2、向后传播阶段误差传播阶段:(1)计算实际输出Op与相应的理想输出Yp的差;(2)按极小化误差的方式调整权矩阵。(
22、3)网络关于第p个样本的误差测度:,(4)网络关于整个样本集的误差测度:,2023/12/7,64,3.4.2.3 误差传播分析,1、输出层权的调整,wpq=wpq+wpqwpq=qop=fn(netq)(yq-oq)op=oq(1-oq)(yq-oq)op,2023/12/7,65,2、隐藏层权的调整,2023/12/7,66,2、隐藏层权的调整,pk-1的值和1k,2k,mk 有关不妨认为pk-1通过权wp1对1k做出贡献,通过权wp2对2k做出贡献,通过权wpm对mk做出贡献。pk-1=fk-1(netp)(wp11k+wp22k+wpmm k),2023/12/7,67,2、隐藏层权的
23、调整,vhp=vhp+vhp vhp=pk-1ohk-2=fk-1(netp)(wp11k+wp22k+wpmmk)ohk-2=opk-1(1-opk-1)(wp11k+wp22k+wpmmk)ohk-2,2023/12/7,68,上次课内容回顾,基本BP算法neti=x1w1i+x2w2i+xnwni,2023/12/7,69,上次课内容回顾,2023/12/7,70,上次课内容回顾,样本权初始化向前传播阶段Op=Fn(F2(F1(XpW(1)W(2)W(n)误差测度,2023/12/7,71,上次课内容回顾,向后传播阶段误差传播阶段输出层权的调整wpq=qop=fn(netq)(yq-oq
24、)op=oq(1-oq)(yq-oq)op隐藏层权的调整,vhp=opk-1(1-opk-1)(wp11k+wp22k+wpmmk)ohk-2,2023/12/7,72,3.4.2.4 基本的BP算法,样本集:S=(X1,Y1),(X2,Y2),(Xs,Ys)基本思想:逐一地根据样本集中的样本(Xk,Yk)计算出实际输出Ok和误差测度E1,对W(1),W(2),W(L)各做一次调整,重复这个循环,直到Ep。用输出层的误差调整输出层权矩阵,并用此误差估计输出层的直接前导层的误差,再用输出层前导层误差估计更前一层的误差。如此获得所有其它各层的误差估计,并用这些估计实现对权矩阵的修改。形成将输出端表
25、现出的误差沿着与输入信号相反的方向逐级向输入端传递的过程,2023/12/7,73,算法4-1 基本BP算法,1 for k=1 to L do1.1 初始化W(k);2 初始化精度控制参数;3 E=+1;4 while E do 4.1 E=0;,2023/12/7,74,算法4-1 基本BP算法,4.2 对S中的每一个样本(Xp,Yp):4.2.1 计算出Xp对应的实际输出Op;4.2.2 计算出Ep;4.2.3 E=E+Ep;4.2.4 根据相应式子调整W(L);4.2.5 k=L-1;4.2.6 while k0 do 4.2.6.1 根据相应式子调整W(k);4.2.6.2 k=k-
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工 神经网络 模型

链接地址:https://www.desk33.com/p-817023.html