文档库 最新最全的文档下载
当前位置:文档库 › 11-第三篇 第4章 如何组织神经网络

11-第三篇 第4章 如何组织神经网络

11-第三篇 第4章 如何组织神经网络
11-第三篇 第4章 如何组织神经网络

第四章 如何组织神经网络

使用人工神经网络时,将面临神经网络结构参数的选择及样本数据的预备等问题。尽管对人工神经网络作了大量研究工作,但至今仍没有一个通用的理论公式来指导这些参数的选择,这里对一些基本方法加以介绍。

4.1 输入和输出层的设计问题

4.1.1 网络信息容量与训练样本数的匹配

在用ANN 解决实际问题时,训练样本的数量在众多要求中往往难于确定,特别它还与网络参数相关,网络参数指输入层、隐层及输出层结点数。对于确定的样本数,网络参数太少则不足以表达样本中蕴涵的全部规律;而网络参数太多,则由于样本信息少而得不到充分的训练。

多层前馈网络的分类逼近能力与网络的信息容量相关,如网络信息容量用网络的权值和阈值总数n w 表示,则训练样本数P 与给定的训练误差ε之间满足下面关系:

ε

ω

n P ≈ 上式表明,网络的信息容量与训练样本数之间存在着合理匹配关系:当实际问题不能提供较多的样本时,为了使训练误差ε不至于过大,则需设法减少n w ,换言之,网络的权值和阈值总数不能太多,这等价于输入层、隐层及输出层结点数不能太多。就输入层、输出层结点数不能太多而言,当问题的输入输出变量较多时,必须剔除那些相对不太重要的参数而选择那些重要的参数作为研究对象。 4.1.2 训练样本数据设计

训练样本的合理选择,对网络具有重要的影响。样本数据的准备工作是网络设计与训练的基础。

1、训练样本数据的要求及数量

样本数据的多少与网络的训练时间有明显关系,除了考虑样本的数量外,还要考虑以下问题:

(1)训练样本数据必须包括要研究问题的全部模式。神经网络是靠样本数据来训练的,样本越全面,网络性能就越好。

(2)训练样本数据之间尽可能不相关或相关性小,否则网络没有泛化能力。

(3)输入变量必须选择那些对输出影响大,且能够控制或提取训练数据的变量。

(4)在训练样本数据中,还应适当地考虑随机噪声的影响。例如在加工线上,用神经网络识别不合格零件,在训练网络时,必须用各种不合格尺寸及不合格形状的数据来训练网络。

(5)应注意在靠近分类边界处训练样本数据的选择。在靠近边界的地方,噪声的影响容易造成网络的错误判断,因此要选用较多的训练样本数据。

(6)训练样本数据量较大时可避免过度训练,或称过度拟合。

(7)训练样本要进行筛选并避免人为因素的干扰,同时应注意训练样本中各种可能模式的平衡,不能偏重于某种类型。

1

另外,为使网络学习到训练样本中蕴涵的知识,一般要采用大量的训练样本,使网络不至于只学到少量样本中不重要的特征。训练样本数据量最好是网络的权重总数乘以2,这里不包括训练之后用于检验训练效果的检验样本数据。

2、输入变量的类型

在设计网络之前,必须整理好训练样本数据,这些数据一般是无法直接获得,常常需要用信号处理与特征提取技术从原始数据中提取能反映其特征的参数作为网络输入数据。一般的数据分为以下两种变量:

(1)语言变量

这类变量没有具体的数据,其测量值之间没有“大于”或“小于”等量的关系,赋予这类唯一的数学关系是“属于”还是“不属于”,“相同”或是“不相同”某一类别。语言变量有性别、职业、形状、颜色,成绩等。

判别是否为语言变量,根据能否给此变量的值赋予顺序关系,如果能赋予就不属于这类变量。

例如,红、黄、蓝、黑四种颜色类别,可分别用0001,0010,0100,1000四个二进制代码表示,换言之,神经网络的输入变量有四个分量[x1,x2,x3,x4],当[x1,x2,x3,x4]=[0,0,0,1]时,输出变量y表示红色,其余类推。

语言变量实质上就是无顺序的离散变量。

(2)数值变量

这类变量的数值具有一定的顺序关系,变量也具有顺序关系。

例如,产品质量用四等级来描述:差、较差,中等、好,可以用1、2、3、4分别表示。状态是从小(差)到大(好),对应的数值也要保持由小到大的渐进关系。

数值变量实质上就是有顺序的离散变量。

3、输出量的表示:

输出量指的是网络的输出,代表系统要实现的功能目标,其选择相对容易些。输出量对网络的精度和时间影响不大,可以是数值或语言变量。对于数值变量可以直接用数值表示,由于网络实际输出只能是0~1或-1~1之间的数,所以需将输出值进行标准化处理或称归一化处理。对于语言变量直接采用二进制数表示法。

4.2 网络数据的准备

数据准备是否得当,直接影响训练时间和网络的性能,下面对有共性的数据准备问题进行讨论。

4.2.1 数据的标准化

数据的标准化,或叫归一化,是指网络的输入、输出各数值变量值都要限制在[0、1]或[-1、1]之间的意思。

当输入变量幅度很大,一个数据变量为106级而另一个数据变量为10-6级,从网络上通过调整权值的大小,针对变量重要程度,那么网络应该学会使前者的权值很小,而使后者的权值很大,但实际上很难办到。因为要跨越这样大的范围,这对学习算法的要求是太高了。事实上,许多学习算法对权值范围都有限制,不能适应如此宽的数据变化范围。为此,我们通过将输入数据归一化到能使网络所有权值调整都在一个不大的范围之内,以此来减轻网络训练时的难度。让各分量都在0~1或-1~1之间变化,也就是说从网络训练的开始,就给各输入分量以同等的地位。

标准化的另一个原因是,比如一个物品的重量以公斤计而另一物品的重量以市斤计,很明显这2

两件物品所用的数据不同。然而经过标准化处理后,数据就与所用的计量单位无关了。

对于BP 网络的神经元采用Sigmoid 转移函数,标准化后可防止因净输入的绝对值过大而使神经元输出饱和,继而使权值调整进入误差曲面的平坦区。

在Sigmoid 转移函数的输出在0~1或-1~1之间,作为导师信号的输出数据如不标准化处理,势必数值大的输出分量绝对误差也大,数值小的输出分量绝对误差也小。网络训练时,只针对输出总误差凋整权值,其结果是在总误差中占份额小的量绝对误差小,而输出分量相对误差较大。碰到这样的问题,只要对输出进行标准化处理就可解决了。

在输入与输出向量的各分量量纲不同时,应对不同分量在其取值范围内分别进行标准化。当各个物意义相同,且为同一个量纲时,应在整个数据范围内确定最大值和最小值进行统一的变换处理。将输入输出数据变换为[0,1]区间的值,常用以下方式变换:

max x min x min

max min x x x x x i i ??= 其中,代表输入或输出数据,代表数据变化的最小值,代表数据的最大值。 i x min x max x 若将输入输出数据变换[-1,1]区间的值,常用以下方式变换

)(212min max min

max x x x x x x x x m i i m ??=+=

式中代表数据变化范围的中间值。按上述方法变换后,处于中间值的原始数据转化为零,而最大值与最小值分别转换1和-1。当输入或输出向量中的某个分量取值过于密集时,对其进行以上处理可将数据点拉开距离。

m x 4.2.2 数据的分布变换

若某变量的分布是非正常的,那么标准化是一种线性变换,但不能改变其分布规律,也会给网络带来很多困难。我们希望输入网络的样本尽量满足下列条件:

(1)参数变化范围的一致性。网络各输入参数的变化幅度应大致相同,而一般情况是,当某变量的数值较大时,它的变化也大,这样是不好的。

(2)样本分布的正常性。由分析可知,具有平坦分布规律的样本更容易学习。因此,要没法使样本的分布尽量匀称。

若将某变量样本分布画成曲线,便得知该变量是否需要作

变换。图4-1所示的样本分布曲线,就表明需要对该变量进行

压缩性变换,以确保样本分布的正常性。

最常用的压缩变换是对数变换。这里应该指出,变换可能

为零值的情况下,应先对变量进行偏移处理,然后再进行压缩。

其它常用的压缩变换有平方根、立方根方法等。设某变量x

在1~10000间变化,若取其自然对数,则变化范围就压缩到0~6.9

之间,若取立方根,使压缩到1~10之间,变换的目的在于压缩

变化的幅度。

图4-1需要变换的样本分布曲线 3

4.3 网络初始权值的选择

网络具有改变权值的能力,可对网络系统进行调节。即使网络初始状态相同,在不同的训练期,由于网络权值不同,也会给出不同的结果。

由于权值的初始值是随机设定的,因此训练后得到的具有同样功能网络的权值也不尽相同,使其寻找输入变量对输出的影响变得更加困难。欲判断输入因素对输出的影响,不要误以为绝对值大的输入因素就重要,而接近于零的因素不重要;也不要认为大权值所连接的输入因素就重要,而小权值所连接的因素就不一定重要。即使某输入通过一个较大的权值连至隐结点,也不能肯定说明变量就是重要因素,因为有可能该隐结点与输出神经单元相连的权值小,也可能某输入与多个隐神经元间的权值均较大,但那些隐神经元以兴奋(正权值)和抑值(负权值)相互抵消的方法连到了输出结点,致使该输入因素对输出影响不大。为啥较小的权值所连的输入因素不一定重要呢?因为同一输入经若干较小权值分别连至不同的隐神经元,而这些隐神经元的输出虽然其值都不大,但有可能相加起来形成一个可观的输出。

从神经元的转移函数来看,它是与零点对称的,如果每一个结点的净输入均在零点的附近,则其输出在转移函数的中点,这个位置不仅远离转移函数的两个饱和区,而且是变化最灵敏的区域,必然会使网络学习速度较快。从净输入X j j W =s 可以看出,为了使各结点的初始净输入在零点附

近,可采用两种方法:一种办法是使初始权值足够小;另一种办法是使初始值为+1和-1的权值数相等。在应用中对隐层权值可采用前者方法,而对输出层可采用后者方法。因为从隐层权值调整公式来看,如果输出层权值太小,会使隐层初期的调整量变小。按以上方法设置的初始权值,可保证每个神经元一开始都工作在其转移函数变化最大的位置。

初始权重确定以后,相互连接的权值如何改变,是随学习的规则变化的,目的是调整权值以减小输出误差。

4.4 隐层数及隐层结点设计

虽然对隐层数及隐层结点数等网络参数设计无通用规则指导,但在设计多层前馈网络时,经过大量的实践一般归纳了以下几点结论:

(1) 对任何实际问题首先只用一个隐层;

(2) 使用很少的隐层结点数;

(3) 不断增加隐层结点数,直到获得满意性能为止,否则再考虑用两个隐层。

下面对隐层数与隐层结点数分别叙述。

4.4.1 隐层数的确定

在设计多层神经网络时,首先考虑要采用几个隐层。经学者研究证明,任意一个连续函数都可用只有一个隐层的网络以任意精度进行逼近,但由于某些先决条件难以满足,致使在应用时造成困难。

图4-2 锯齿波函数

学者们通过分析研究曾得出过这样的结论:两个隐层的

网络可以获得要求输入与输出是任意连续的函数关系,下面

以连续锯齿形函数作为例子来说明。

将该曲线分成30个等距分开的点来训练隐层数及单元数

不同的网络,其结果如表4-1。

4

从表4-1可看出:当只有一个隐层时,隐层单元数从3增加到4时,出现一个跳跃,网络性能有明显改善,即各种误差均大幅下降。此后,无论是增加单元数,还是增加隐层数,对网络的性能影响不大,甚至当隐层神经元数由5变到10时,性能反而有些下降,这说明增加神经元数目,超过一定数值后对网络性能反而不利。但若将10个神经元分为两个隐层,网络性能又上了一个台阶。还可看出当采用两个隐层时,若将隐层神经元大数配置在第一个隐层,则有利于网络的功能改善。 表4-1 隐层数及结点数与误差的关系 隐层数 单元数 训练误差

检验误差 均方差 1 1 4.313

4.330 0.2081 1 2 2.714

2.739

0.1655 1 3 2.136

2.148 0.1465 1 4 0.471

0.485 0.0697 1 5 0.328

0.349 0.0590 1 10 0.319 0.447

0.0668 2 3,7 0.398 0.414 0.0643 2 5,5 0.161 0.200

0.0447 2 7,3 0.113

0.163 0.0403

一般而言,增加隐层可增加人工神经网络的处理能力,但必将使训练复杂化,并引起训练样本数目增加和训练时间的增加。在设计网络时,首先考虑只选一个隐层。如果选用了一个隐层,在增加结点数量后还不能得到满意结果,这时可以再加一个隐层,但一般应减少总的结点数。

4.4.2 隐层结点数的确定

建立多层神经网络模型时,采用适当的隐层结点数是很重要的,可以说选用隐层结点数往往是网络成败的关键。隐层结点数太少,网络所能获取解决问题的信息太少,网络难以处理较复杂的问题;若隐层结点数过多,将使网络训练时间急剧增加,而且过多的隐层神经元容易使网络训练过度,如图4-3所示,也就是说网络具有过多的信息处理能力,甚至将训练样本中没有意义的信息也记住了。这样网络就难以分辨样本中的真正模式。

a ) b)

a)适当训练 b)过度训练

x---训练样本 O ——测试样本

图4-3 网络过渡训练

5

实际上,隐层结点数取决于训练样本的多少,噪声量的大小,以及有待网络学习的输入—输出函数关系或分类的复杂程度。在用神经网络作函数映射时,只有用较多的隐层结点数才能得到波动数较多、幅度变化较大的映射关系,就像在函数逼近

时,要使用高阶多项式才能获得函数起伏变化大的曲

线一样。

在许多应用场合,可用金字塔规则来确定隐层结点数。所谓金字塔规则,指从输入层到输出层,结点数不断减少,形状好似金字塔(图4-4)。此规则对输入、输出神经元数相等的自联想网络显然是例外的。

当只有一个隐层时,若输入、输出结点数分别为n 和m ,则隐层结点数=mn ,当有二个隐层时结点数

为:

图4-4 金字塔规则

第一隐层结点数=mr

2第二隐层结点数=mr

式中, 3m

n r = 上面所介绍的公式只是对理想的隐层结点的粗略估计数。若输入和输出结点数很小,而问题又相当复杂,以上公式就不适用了。例如,只有一输入变量和输出变量的复杂函数,就可能需要十多个隐层结点才能使网络得到很好的训练;另一方面,若一个简单问题具有许多输入和输出变量,且问题也比较简单,少量的隐结点数也就是够了。在输入结点多而输出结点少时,上述的金字塔原则多数情况是适用的,一般可作为试验试凑法的初始值运用。

试验试凑法确定隐结点的方法是:用同一样本集对具有不同隐结点数的网络进行训练,直到权值不再变化网络稳定为止;然后,依据试验误差最小,确定网络的隐结点数。虽然,这种方法较费时,但也是目前确定隐层结点行之有效的方法。

在使用试验试凑法时,首先隐层的结点数应从较少的单元试起,然后选择合适的准则评价网络的性能,训练并检验网络的性能,然后稍增加隐层结点数。再重复训练和测试,每一次增加新的结点数,训练都应重新开始,而不能采用上一次训练后所得的权值,以免影响网络的性能。

4.5 网络的训练、检测及性能评价

网络的学习是通过对给定的训练样本,经反复训练来实现的。由于这种学习是对连接权的调整,一般通过对网络的输出评价来判定学习的好与差,下面分别讨论。

4.5.1 训练样本与检测样本

网络设计完成后,在开始训练之前,首先要把全部样本集数据用随机的方法,分出一部分作为训练集数据,另一部分作为网络性能检测用的检测样本集数据。检测数据组的多少由全部所得的数据而定,要包括网络设计要求的全部模式。检测样本集数据格式与训练样本集数据相同。在网络训练时,有的软件不断地用检测数据来检查网络的训练情况,以防网络过度训练。在这样的情况下,检测数据不能再作为网络最后性能的检查,因为这部分检测数据对网络的训练过程有一定的影响。所以,还需要保留另一组检测数据,对训练后的网络作最终的性能测试,这种测试数据称之为产品数据,产品数据选择原则与检测数据相同。必须提醒的是在数据的选择上不能加入人为因素。这一点对于数据的选择是很重要的。

检测数据与产品数据选用多少组才比较合适,这要根据总的数据及网络的结构来决定。除了保证训练样本数据中包括各种应有的模式外,在类型的边界处,应有较多的训练数据,按输入与输出映射关系的复杂程度考虑应有一定的噪声,以保证网络对各种模式有清晰的分辨能力。全面足够的

6

训练数据才能保证网络有良好的训练。为了能全面检查网络的性能,检测数据和产品数据也要包括全部模式。因此,可以参照这样一个经验规则,即:训练样本数是连接权总数的5~10倍。

4.5.2 网络训练方法

在第二章2.1节已经介绍了网络的学习训练方法,现在对有导师(有监督)及无导师(无监督)训练方法再分别加以讨论。

对于普通的有导师指导下的训练,每一组用于训练的样本数据中每个输入值都有相应的输出值,也就是样本对。将输入值输入网络,经过网络计算得出一组输出值,再与期望的输出值进行比较。在一批训练数据依次输入网络后,网络得出一组实际输出值与期望输出值的误差,然后根据误差的大小和方向,调整连接的权值。网络再输入一组训练样本数据,但是每一轮更换数据最好不要按固定的顺序取数,在新输入的数据组中的权值应使得误差值减少。每输入一批训练样本数据后,就根据误差调整权值,这组数据称为一批(Epoch),这批数据的数量称为批的规模。有些人选用批的规模为1,即是每输入一组训练数据,就调整一次权值;大多数人选用批的规模为全部训练数据组,也就是在全部训练数据都输入完以后,用全部训练数据得到的平均误差作为调整权值的依据。如果批的规模小于训练数据组时,应该每次都要随机选取数据组的输入顺序。除了有时间系列要求进行依顺序输入外,原则上应选用随机输入,否则输出误差可能出现大的摆动,而且难以使误差收敛到要求值。

整个训练要反复地作用网络多次,直到整个训练集作用下的误差小于事前规定的容许值为止,接下来就可以检测网络的性能。

在无导师指导的训练时,同样需要给出一些输入样本数据来训练网络,但这些训练样本集不提供相应的输出模式样本数据,在学习训练计算中能保证:当向网络输入类似的模式时,能产生相同的输出模式。也就是说,网络能抽取训练集的统计特征,从而把输入模式按相似程度划分为若干类。但是在训练之前,无法预先知道某个输入模式将产生什么样的输出模式或属于哪一类,只有训练后才能对输入模式(无论网络在训练时是否“见过”)进行正确分类。

例如,设有大量的两维样本数据X=[x1,x2]T,经无导师指导的训练后,神经网络可将这些数据分布情况分成A,B,C三类,如图4-5所示。每类数据使网络一个相应结点输出“1”态,其余为“0”态。

a)网络结构b)输出模式 c)数据分布

图4-5 无导师指导下训练实例

值得注意的是:随着训练对的增加,图4-5(c)中实际分类边界(实际)与网络分类边界(虚线)将越来越近。

4.5.3 网络训练次数

在隐层结点数一定的情况下,存在着一个最佳训练次数。并不是训练次数越多,训练误差越小越好。

网络在训练过程中,同时输入检查测数据,即训练与检测交替进行。训练误差与检测误差值随训练过程而变化的,对训练过程来说,一般是随训练次数增加训练误差减小。检测数据是从全部

7

样本数据中随机选取的,没有参加训练,只是在训练完网络后作为

检测网络的性能。一般在网络训练开始时,检测误差是随训练次数

的增加而降低。也就是说,网络开始不断地学习输入数据的普通类

型,但若训练超过一定次数,检查误差反而开始增加,如图4-6所

示。这表明网络已开始记住输入中不重要的细节。而不仅是它的普

通类型。

训练的次数与隐层的结点有关。当选用过多的隐层结点,网络

容易过度训练,此时网络不是学到了数据的一般特征,而是记住了单个样本的细微特征,网络性能变差。这时,首先应减少隐层结点

数,重新训练网络,或是增加训练数据的数量,以便所有训练样本能代表全体数据的普遍特征。此外,每次改变隐层结点,都要重新进行训练,而且应随机地选取处理单元的初始权值。

图4-6 网络训练与检测误差曲隐层的结点数与训练样本数据组是密切相关的,若有足够多的训练样本,就可以使隐层结点达到最佳单元数。若在训练时,发现网络训练数据学习很好,收敛很快,但是检测误差还很大,这时就要考虑是不是出现过度训练,或者是训练样本不足,没有代表数据的全部特性,或者检测数据中有的特性没有包括在训练数据之中,所以网络没有学会区分这种特征的本领,这些均是造成检测效果很差的原因。

如果网络对训练样本数据收敛很快,而且检测数据误差很快就达到最小值,然后误差曲线迅速上升,这种情况表明训练数据不足,必须增加训练样本重新训练网络。

由图4-6的误差曲线可以看出,在某一个训练次数之前,随着训练次数的增加,两条误差曲线同时下降。当超过这个训练次数,训练误差继续减小,而检测误差则开始上升。此时的训练次数即为最佳训练次数,在此之前停止训练会造成网络训练不足,此后就会出现训练过度。

4.5.4 网络性能评价

介绍下面两种评价网络性能的方法:

1)均方根误差

评价网络收敛的好坏,除了速度以外,常用均方根误差来定量反映学习训练的性能;均方根误差定义如下:

n m y d E ij ij n j m i ??=∑

∑==2

1

1)( 式中,m 表示训练集的样本数,n 为网络输出单元个数,

ij d 表示网络期望输出值,表示网络实际输出值。

ij y 2)均方差

由于均方差的直观性,而且强调大的误差的影响超过小的误差影响,所以通常用输出的均方差来衡量网络的性能。除此之外,均方差的导数比其他性能测量方法更容易计算;如果假设误差是标准分布,均方差一般接近于标准分布的中心。所以几乎所有正反馈网络及其他网络却普遍采用。

对于任一输入,网络都有一组输出。如果只考虑输出层,设一批数据中,第p 个输入数据输入网络后,网络输出层第j 个单元的实际输出,而期望的输出为,若其有n 个输出单元,输入数据p 相应的均方差为:

pj y pj d

8

21

)(1pj pj n j p y d n E ?=∑?= 如果这批数据共有m 个组,则这一批输入数据的均方差为

∑?==1

1m p p E m E 均方差评价的缺点:

(1)均方差只是一个表达式与网络所完成的任务联系很少。如果网络是要决定在时间系列中是否有特征的信号模式,就无能为力,因为均方差无法分辨出来。

(2)如果网络的任务要将一些模式分类,均方差也不能说明分类错误发生的频率。

(3)用均方差评价无法区别微小错误与大错误。

网络性能评价的方法,取决于网络所负担的任务,根据具体的情况而定。

9

11-第三篇 第4章 如何组织神经网络

第四章 如何组织神经网络 使用人工神经网络时,将面临神经网络结构参数的选择及样本数据的预备等问题。尽管对人工神经网络作了大量研究工作,但至今仍没有一个通用的理论公式来指导这些参数的选择,这里对一些基本方法加以介绍。 4.1 输入和输出层的设计问题 4.1.1 网络信息容量与训练样本数的匹配 在用ANN 解决实际问题时,训练样本的数量在众多要求中往往难于确定,特别它还与网络参数相关,网络参数指输入层、隐层及输出层结点数。对于确定的样本数,网络参数太少则不足以表达样本中蕴涵的全部规律;而网络参数太多,则由于样本信息少而得不到充分的训练。 多层前馈网络的分类逼近能力与网络的信息容量相关,如网络信息容量用网络的权值和阈值总数n w 表示,则训练样本数P 与给定的训练误差ε之间满足下面关系: ε ω n P ≈ 上式表明,网络的信息容量与训练样本数之间存在着合理匹配关系:当实际问题不能提供较多的样本时,为了使训练误差ε不至于过大,则需设法减少n w ,换言之,网络的权值和阈值总数不能太多,这等价于输入层、隐层及输出层结点数不能太多。就输入层、输出层结点数不能太多而言,当问题的输入输出变量较多时,必须剔除那些相对不太重要的参数而选择那些重要的参数作为研究对象。 4.1.2 训练样本数据设计 训练样本的合理选择,对网络具有重要的影响。样本数据的准备工作是网络设计与训练的基础。 1、训练样本数据的要求及数量 样本数据的多少与网络的训练时间有明显关系,除了考虑样本的数量外,还要考虑以下问题: (1)训练样本数据必须包括要研究问题的全部模式。神经网络是靠样本数据来训练的,样本越全面,网络性能就越好。 (2)训练样本数据之间尽可能不相关或相关性小,否则网络没有泛化能力。 (3)输入变量必须选择那些对输出影响大,且能够控制或提取训练数据的变量。 (4)在训练样本数据中,还应适当地考虑随机噪声的影响。例如在加工线上,用神经网络识别不合格零件,在训练网络时,必须用各种不合格尺寸及不合格形状的数据来训练网络。 (5)应注意在靠近分类边界处训练样本数据的选择。在靠近边界的地方,噪声的影响容易造成网络的错误判断,因此要选用较多的训练样本数据。 (6)训练样本数据量较大时可避免过度训练,或称过度拟合。 (7)训练样本要进行筛选并避免人为因素的干扰,同时应注意训练样本中各种可能模式的平衡,不能偏重于某种类型。 1

神经网络控制

人工神经网络控制 摘要: 神经网络控制,即基于神经网络控制或简称神经控制,是指在控制系统中采用神经网络这一工具对难以精确描述的复杂的非线性对象进行建模,或充当控制器,或优化计算,或进行推理,或故障诊断等,亦即同时兼有上述某些功能的适应组合,将这样的系统统称为神经网络的控制系统。本文从人工神经网络,以及控制理论如何与神经网络相结合,详细的论述了神经网络控制的应用以及发展。 关键词: 神经网络控制;控制系统;人工神经网络 人工神经网络的发展过程 神经网络控制是20世纪80年代末期发展起来的自动控制领域的前沿学科之一。它是智能控制的一个新的分支,为解决复杂的非线性、不确定、不确知系统的控制问题开辟了新途径。是(人工)神经网络理论与控制理论相结合的产物,是发展中的学科。它汇集了包括数学、生物学、神经生理学、脑科学、遗传学、人工智能、计算机科学、自动控制等学科的理论、技术、方法及研究成果。 在控制领域,将具有学习能力的控制系统称为学习控制系统,属于智能控制系统。神经控制是有学习能力的,属于学习控制,是智能控制的一个分支。神经控制发展至今,虽仅有十余年的历史,已有了多种控制结构。如神经预测控制、神经逆系统控制等。 生物神经元模型 神经元是大脑处理信息的基本单元,人脑大约含1012个神经元,分成约1000种类型,每个神经元大约与102~104个其他神经元相连接,形成极为错综复杂而又灵活多变的神经网络。每个神经元虽然都十分简单,但是如此大量的神经元之间、如此复杂的连接却可以演化出丰富多彩的行为方式,同时,如此大量的神经元与外部感受器之间的多种多样的连接方式也蕴含了变化莫测的反应方式。 图1 生物神经元传递信息的过程为多输入、单输出,神经元各组成部分的功能来看,信息的处理与传递主要发生在突触附近,当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质,突触有两

前馈神经网络和反馈神经网络模型

前馈神经网络 前馈神经网络的结构一般包含输入层、输出层、及隐含层,隐含层可以是一层或多层。各神经元只接收前一层的输出作为自己的输入,并且将其输出给下一层,整个网络中没有反馈。每一个神经元都可以有任意多个输入,但只允许有一个输出。图1选择只含一个隐含层的前馈神经网络。其原理框图如图1所示。 图中,只有前向输出,各层神经元之间的连接用权值表示。设输入层有M 个输入信号,其中任一输入信号用i ()M i ,2,1 =表示;隐含层有N 个神经元,任一隐含层神经元用j ()N j ,2,1 =表示;输入层与隐含层间的连接权值为()n w ij , ()N j M i ,2,1;,2,1 ==;隐含层与输出层的连接权值为()n w j 。假定隐含层神 经元的输入为()n u j ,输出为()n v j ;输出层神经元的输入为()n o ,网络总输出为 ()n x ~。则此神经网络的状态方程可表示为: ()()()∑+-==M i ij j i n y n w n u 11 ()()[] ()()?? ? ???∑+-===M i ij j j i n y n w f n u f n v 11 ()()()∑==N j j j n v n w n o 1 ()()[]()()?? ????==∑=N j j j n v n w f n o f n x 1~ 图1 三层前馈神经网络结构图 输入层 隐含层 输出层 (y n (1y n -(1y n M -+

式中,()?f 表示隐含层、输出层的输入和输出之间的传递函数,也称为激励函数。 定义代价函数为瞬时均方误差: ()()()()[] ()()()2 12 2~?? ? ????? ????????-=-==∑=N j j j n v n w f n d n x n d n e n J 式中,()n d 为训练信号。 递归神经网络 对角递归神经网络 图2为典型的对角递归神经网络,它具有三层结构,分别为输入层,隐层和输出层,在隐层的权值叠加中,引入了输入的前一时刻的输出作为反馈控制信号。选用这种网络的优点是结构简单,易于实现,可以直观的体现反馈神经网络的结构模式和工作方式。 设输入层与隐层间的连接权值为()n w h ij ()k j m i ,2,1;,,1,0==,隐层与输 出层之间的权值为()n w o j ,递归层的权值为()n w d j 。设输入层的输入为()i n y -, 隐层的输入为()n u j ,输出为()n I j ,输出层的输入为()n v ,输出层的输出为()n x ~,则对角递归神经网络的状态方程为 ()()()()()10-+-=∑=n I n w i n y n w n u j d j m i h ij j 输入层 输出层 隐层 图2 对角递归神经网络的结构 ()y n ()1y n - ()1y n m -+ ()y n m - mj d

第4章 SOM自组织特征映射神经网络

第4章 SOM 自组织特征映射神经网络 生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。 据此芬兰Helsinki 大学的Kohonen T.教授提出了一种自组织特征映射网络(Self-organizing feature Map ,SOM ),又称Kohonen 网络[1-5]。Kohonen 认为,一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。SOM 网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。 4.1 竞争学习算法基础[6] 4.1.1 自组织神经网络结构 1.定义 自组织神经网络是无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。 2.结构 层次型结构,具有竞争层。典型结构:输入层+竞争层。如图4-1所示。 竞争层 输入 层 图4-1 自组织神经网络结构

· 输入层:接受外界信息,将输入模式向竞争层传递,起“观察”作用。 竞争层:负责对输入模式进行“分析比较”,寻找规律,并归类。 4.1.2 自组织神经网络的原理 1.分类与输入模式的相似性 分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中,无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开来,实现模式样本的类内相似性和类间分离性。由于无导师学习的训练样本中不含期望输出,因此对于某一输入模式样本应属于哪一类并没有任何先验知识。对于一组输入模式,只能根据它们之间的相似程度来分为若干类,因此,相似性是输入模式的聚类依据。 2.相似性测量 神经网络的输入模式向量的相似性测量可用向量之间的距离来衡量。常用的方法有欧氏距离法和余弦法两种。 (1)欧式距离法 设i X X ,为两向量,其间的欧式距离 T i i i X X X X X X d ))((--= -= (4-1) d 越小,X 与i X 越接近,两者越相似,当0=d 时,i X X =;以T d =(常数)为判据,可对输入向量模式进行聚类分析: 由于312312,,d d d 均小于T ,465645,,d d d 均小于T ,而)6,5,4(1=>i T d i , )6,5,4(2=>i T d i , )6,5,4(3=>i T d i , 故将输入模式654321,,,,,X X X X X X 分为类1和类2两大类,如图4-2所示。 (2)余弦法 设i X X ,为两向量,其间的夹角余弦 i T X X XX = ?cos (4-2) ?越小,X 与i X 越接近,两者越相似;当?=0时,?cos =1,i X X =;同样以0??=为 判据可进行聚类分析。

神经网络模型预测控制器

神经网络模型预测控制器 摘要:本文将神经网络控制器应用于受限非线性系统的优化模型预测控制中,控制规则用一个神经网络函数逼近器来表示,该网络是通过最小化一个与控制相关的代价函数来训练的。本文提出的方法可以用于构造任意结构的控制器,如减速优化控制器和分散控制器。 关键字:模型预测控制、神经网络、非线性控制 1.介绍 由于非线性控制问题的复杂性,通常用逼近方法来获得近似解。在本文中,提出了一种广泛应用的方法即模型预测控制(MPC),这可用于解决在线优化问题,另一种方法是函数逼近器,如人工神经网络,这可用于离线的优化控制规则。 在模型预测控制中,控制信号取决于在每个采样时刻时的想要在线最小化的代价函数,它已经广泛地应用于受限的多变量系统和非线性过程等工业控制中[3,11,22]。MPC方法一个潜在的弱点是优化问题必须能严格地按要求推算,尤其是在非线性系统中。模型预测控制已经广泛地应用于线性MPC问题中[5],但为了减小在线计算时的计算量,该部分的计算为离线。一个非常强大的函数逼近器为神经网络,它能很好地用于表示非线性模型或控制器,如文献[4,13,14]。基于模型跟踪控制的方法已经普遍地应用在神经网络控制,这种方法的一个局限性是它不适合于不稳定地逆系统,基此本文研究了基于优化控制技术的方法。 许多基于神经网络的方法已经提出了应用在优化控制问题方面,该优化控制的目标是最小化一个与控制相关的代价函数。一个方法是用一个神经网络来逼近与优化控制问题相关联的动态程式方程的解[6]。一个更直接地方法是模仿MPC方法,用通过最小化预测代价函数来训练神经网络控制器。为了达到精确的MPC技术,用神经网络来逼近模型预测控制策略,且通过离线计算[1,7.9,19]。用一个交替且更直接的方法即直接最小化代价函数训练网络控制器代替通过训练一个神经网络来逼近一个优化模型预测控制策略。这种方法目前已有许多版本,Parisini[20]和Zoppoli[24]等人研究了随机优化控制问题,其中控制器作为神经网络逼近器的输入输出的一个函数。Seong和Widrow[23]研究了一个初始状态为随机分配的优化控制问题,控制器为反馈状态,用一个神经网络来表示。在以上的研究中,应用了一个随机逼近器算法来训练网络。Al-dajani[2]和Nayeri等人[15]提出了一种相似的方法,即用最速下降法来训练神经网络控制器。 在许多应用中,设计一个控制器都涉及到一个特殊的结构。对于复杂的系统如减速控制器或分散控制系统,都需要许多输入与输出。在模型预测控制中,模型是用于预测系统未来的运动轨迹,优化控制信号是系统模型的系统的函数。因此,模型预测控制不能用于定结构控制问题。不同的是,基于神经网络函数逼近器的控制器可以应用于优化定结构控制问题。 在本文中,主要研究的是应用于非线性优化控制问题的结构受限的MPC类型[20,2,24,23,15]。控制规则用神经网络逼近器表示,最小化一个与控制相关的代价函数来离线训练神经网络。通过将神经网络控制的输入适当特殊化来完成优化低阶控制器的设计,分散和其它定结构神经网络控制器是通过对网络结构加入合适的限制构成的。通过一个数据例子来评价神经网络控制器的性能并与优化模型预测控制器进行比较。 2.问题表述 考虑一个离散非线性控制系统: 其中为控制器的输出,为输入,为状态矢量。控制

关于学习神经网络监督(学习)控制的一点心得

关于学习神经网络监督(学习)控制的一点心得 神经网络控制是一种基本上不依赖于精确数学模型的先进控制方法,比较适用于那些具有不确定性或高度非线性的控制对象,并具有较强的适应和学习能力。[1] 人工神经元网络是在生物神经元模型基础上发展而来的。生物神经元模型的基本组成单元是单个的神经元,它有着接受、传导信息的功能。其中最重要的一点是生物神经元能接受多个神经元传递的信息,并能将其往下传递给多个神经元。根据其特点抽象出的最典型的人工神经元模型如下图所示: 从图中易知其数学模型为: ∑∑===-=n i i ji j n i i ji j x w f x w f y 01)()(θ ,( 100-==j j w x ,θ) 式中,j θ是阈值, ji w 是连接权系数;f (·)为输出变换函数。 人工神经网络是由多个人工神经元组成,每个神经元有多个输入连接通路,但只有一个单一的输出,但是它可以连接到很多其他的神经元。经过多个神经元的串、并连接,就可以构成神经网络。依据神经元的图形模型和数学模型可以知道神经网络具有如下性质: 1) 对于每个节点有一个状态变量j x ; 2) 节点i 到节点 j 有一个连接权系数ji w ; 3) 对于每一个节点有一个阈值j θ; 4) 对于每个节点定义一个变换函数f j [x i ,w ji ,j θ( i ≠j )]。[1] 单个神经元的输出乘以连接权系数即是下一个神经元的输入。对于一个神经网络,当确定了各节点的输出变换函数后,连接权值将作为变量,神经网络的学习功能旨在通过调整连接权值以达到给定输入下得到目标输出的目的,但实际情况只能是接近目标输出。 神经网络的学习基本方式如下:通过给定的输入得到实际输出值,然后记录到目标输出与实际输出的差值,想减小综合差值的方向调整连接权值,这样依次进行下去,最后得到一组最优的连接权集合。当神经网络的节点越多,其能识别的模式也越多,但训练的运算量也相应的增加,这就对训练样本的选择提出更高的要求。 神经元网络监督控制系统的基本系统框图如下:

基于神经网络输出反馈的动态矩阵控制研究

clear all; close all; xite=0.50; alfa=0.05; w2=rand(6,1); w2_1=w2;w2_2=w2; w1=rand(2,6); w1_1=w1;w1_2=w1; dw1=0*w1; x=[0,0]'; u_1=0; y_1=0; I=[0,0,0,0,0,0]'; Iout=[0,0,0,0,0,0]'; FI=[0,0,0,0,0,0]'; ts=0.001; for k=1:1:1000 time(k)=k*ts; u(k)=0.50*sin(3*2*pi*k*ts); a(k)=1.2*(1-0.8*exp(-0.1*k)); y(k)=a(k)*y_1/(1+y_1^2)+u_1; for j=1:1:6 I(j)=x'*w1(:,j); Iout(j)=1/(1+exp(-I(j))); end yn(k)=w2'*Iout; e(k)=y(k)-yn(k); w2=w2_1+(xite*e(k))*Iout+alfa*(w2_1-w2_2); for j=1:1:6 FI(j)=exp(-I(j))/(1+exp(-I(j)))^2; end

for i=1:1:2 for j=1:1:6 dw1(i,j)=e(k)*xite*FI(j)*w2(j)*x(i); end end w1=w1_1+dw1+alfa*(w1_1-w1_2); x(1)=u(k); x(2)=y(k); w1_2=w1_1;w1_1=w1; w2_2=w2_1;w2_1=w2; u_1=u(k); y_1=y(k); end figure(1); plot(time,y,'r',time,yn,'b'); xlabel('times');ylabel('y and yn'); grid on ts=0.1; for k=1:1:200 time(k)=k*ts; u(k)=1; a(k)=1.2*(1-0.8*exp(-0.1*k)); y(k)=a(k)*y_1/(1+y_1^2)+u_1; for j=1:1:6 I(j)=x'*w1(:,j); Iout(j)=1/(1+exp(-I(j))); end yn(k)=w2'*Iout; e(k)=y(k)-yn(k); w2=w2_1+(xite*e(k))*Iout+alfa*(w2_1-w2_2); for j=1:1:6 FI(j)=exp(-I(j))/(1+exp(-I(j)))^2; end for i=1:1:2

自组织特征映射网络的分析与应用

第24卷第4期Vol 24 No 4 长春师范学院学报(自然科学版) Journal of Chang Chun Teachers College(Natural Science) 2005年10月Oct 2005 自组织特征映射网络的分析与应用 程 勖1 ,杨毅恒1 ,陈薇伶 2 (1 吉林大学综合信息矿产预测研究所,吉林长春 130026; 2.长春工业大学研究生院,吉林长春 130012) [摘 要]数据挖掘的方法主要包括检索和分类两类,而各自都有缺陷。针对这些缺点提出先利用自组织映射的方法对采集的数据进行聚类和可视化,获得一些关于采集到的数据的初步信息。自组织映射法的目的是一个将高维数据非线性的投到一个预先定义好的二维拓扑中。它通过竞争学习的方法达到了降维、聚类、可视化的目的。 [关键词]自组织特征映射;聚类;学习速率;权值矩阵[中图分类号]TP311 [文献标识码]A [文章编号]1008-178X(2005)04-0055 05 [收稿日期]2005-07-02 [作者简介]程 勖(1980-),男,吉林长春人,吉林大学综合信息矿产预测研究所硕士研究生,从事GIS 二次开发 及其在矿产中的评价研究。 1 引言 人工神经网络系统从20世纪40年代末诞生至今仅半个多世纪,但由于其所具有的非线性特性,大量的并行分布结构以及学习和归纳能力使其在模式识别、信号处理、知识工程、专家系统、优化组合、机器人控制等领域得到越来越广泛的应用。自组织特征映射网络是由芬兰学者Teuvo Kohonen 于1981年提出的 [1][2][3] 。该网络是一个由全连接的神经元阵列组成的无教师自组织、自学习网络。Koho nen 认为,处于空间中不同区域的神经元有不同的分工,当一个神经网络接受外界输入模式时,将会为不同的反应区域,各区域对输入模式具有不同的响应特性。它所形成的聚类中心能够映射到一个平面或曲面上而保持拓朴结构不变, 可以对目标的固有特征作出客观的划分。 Fig 1 1The structure of Kohonen ANN 2 自组织特征映射神经网络的结构与学习算法 Kohonen 网络或自组织特征映射网络含有两层,一个输入缓冲层用于接收输入模式,另一为输出层,见图1 1[5] 。输出层的神经元一般按正则二维阵列排列,每个输出神经元连接至所有输入神经 55

神经网络控制完整版

神经网络控制 HEN system office room 【HEN16H-HENS2AHENS8Q8-HENH1688】

人工神经网络控制 摘要: 神经网络控制,即基于神经网络控制或简称神经控制,是指在控制系统中采用神经网络这一工具对难以精确描述的复杂的非线性对象进行建模,或充当控制器,或优化计算,或进行推理,或故障诊断等,亦即同时兼有上述某些功能的适应组合,将这样的系统统称为神经网络的控制系统。本文从人工神经网络,以及控制理论如何与神经网络相结合,详细的论述了神经网络控制的应用以及发展。 关键词: 神经网络控制;控制系统;人工神经网络 人工神经网络的发展过程 神经网络控制是20世纪80年代末期发展起来的自动控制领域的前沿学科之一。它是智能控制的一个新的分支,为解决复杂的非线性、不确定、不确知系统的控制问题开辟了新途径。是(人工)神经网络理论与控制理论相结合的产物,是发展中的学科。它汇集了包括数学、生物学、神经生理学、脑科学、遗传学、人工智能、计算机科学、自动控制等学科的理论、技术、方法及研究成果。 在控制领域,将具有学习能力的控制系统称为学习控制系统,属于智能控制系统。神经控制是有学习能力的,属于学习控制,是智能控制的一个分支。神经控制发展至今,虽仅有十余年的历史,已有了多种控制结构。如神经预测控制、神经逆系统控制等。 生物神经元模型 神经元是大脑处理信息的基本单元,人脑大约含1012个神经元,分成约1000种类型,每个神经元大约与 102~104个其他神经元相连接,形成极为错综复杂而又灵活多变的神经网络。每个神经元虽然都十分简单,但是如此大量的神经元之间、如此复杂的连接却可以演化出丰富多彩的行为方式,同时,如此大量的神经元与外部感受器之间的多种多样的连接方式也蕴含了变化莫测的反应方式。 图1 生物神经元传递信息的过程为多输入、单输出,神经元各组成部分的功能来看,信息的处理与传递主要发生在突触附近,当神经元细胞体通过轴突传到突触前膜的脉

SOM神经网络

SOM神经网络

第4章 SOM自组织特征映射神经网络 生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。 据此芬兰Helsinki大学的Kohonen T.教授提出了一种自组织特征映射网络(Self-organizing feature Map,SOM),又称Kohonen网络[1-5]。Kohonen认为,一个神经网络接受外界输入模式时,将会分为不同的对应区

域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。SOM网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。 4.1 竞争学习算法基础[6] 4.1.1 自组织神经网络结构 1.定义 自组织神经网络是无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。 2.结构 层次型结构,具有竞争层。典型结构:输入层+竞争层。如图4-1所示。 … 竞争层 … 图4-1 自组织神经网络结构 ·输入层:接受外界信息,将输入模式向竞争 层传递,起“观察”作用。

AI翻转课堂教案-第4章 人工神经网络与深度学习教案

第四章人工神经网络与深度学习课题名称:人工神经网络与深度学习 学习过程:

络曾历经质疑、批判与冷落,同时也几度繁荣并取得了许多瞩目的成就。从20世纪40年代的M-P神经元和Hebb学习规则,到50年代的Hodykin-Huxley方程感知器模型与自适应滤波器,再到60年代的自组织映射网络、神经认知机、自适应共振网络,许多神经计算模型都发展成为信号处理、计算机视觉、自然语言处理与优化计算等领域的经典方法,为该领域带来了里程碑式的影响。目前模拟人脑复杂的层次化认知特点的深度学习已经成为类脑智能中的一个重要研究方向。通过增加网络层数所构造的“深层神经网络”使机器能够获得“抽象概念”能力,在诸多领域都取得了巨大的成功,又掀起了神经网络研究和应用的一个新高潮。 (三)神经元 人脑中的信息处理单元是神经细胞,而人工神经网络的计算单元就是人工神经元,,一个人工神经元的结构如图所示。 (1)来自其他神经元的输入信号为(x1, x2, ..., xn)。 (2)每一个输入信号都有一个与之对应的突触权重(w1, w2, ..., wn),权重(weight)的高低反映了输入信号对神经元的重要性。 (3)线性聚合器(∑)将经过加权的输入信号相加,生成一个“激活电压”(activation voltage)。 (4)激活阈值(activation threshold)或bias(θ)给神经元的输出设置一个阈值。 (5)激活电位(activation potential)u是线性聚合器和激活阈值之差,如果u≥0,神经元产生的就是兴奋信号,如果u<0,神经元产生的是抑制信号。 (6)激活函数(activation function)g将神经元的输出限制在一个合理的范围内。 (7)神经元产生的输出信号(y),可以传递给与之相连的其他神经元。 将上述信息用公式可表示为:

自组织特征映射网络(SOM)课件

人工神经网络自组织特征映射网络简介二〇一二年十二月

目录: 1. 由自组织竞争神经网络谈起 2. 自组织特征映射网基本概念 3. 自组织特征映射网拓扑结构 4. 自组织特征映射网学习算法 5. 自组织特征映射网的应用

从自组织竞争神经网络谈起:此类网络是模拟生物神经系统“侧抑制”现象的一类人工神经网络。自组织特征映射网是此类网络的主要类型之一。 在生物神经系统中,存在着一种“侧抑制”现象,即当一个神经细胞兴奋后,会对其周围的神经细胞产生抑制作用。这种“侧抑制”使神经细胞之 间呈现出竞争。开始时可能多个细胞同时兴奋,但一个兴奋程度最强的神经 细胞会逐渐抑制周围神经细胞,其结果使其周围神经细胞兴奋度减弱,从而 兴奋度最高的细胞是这次竞争的“胜者”,而其他神经细胞在竞争中失败。 自组织竞争神经网络就是模拟 上述生物神经系统功能的人工神经 网络。如右图所示,输出层各神经 元之间都有双向连接线,各连接线 被赋予相应的权值。从而实现对生 物网络神经元相互竞争和抑制现象 的模拟。 x1x 2 x i ············

自组织竞争神经网络通过对“侧抑制”现象的模拟,具备自组织功能,能无导师学习。 自组织功能无导师学习 自组织竞争神经网络的一大特点是:具有自组织功能,能够自适应地改变网络参数和结构,从而实现无导师学习。 自组织竞争网络无导师学习方式更类似于人类大脑神经网络的学习,大大拓宽了神经网络在模式识别和和分类上的应用。 无导师指导的分类称为聚类,由于无导师学习的训练样本中不含有期望输出,因此没有任何先验的知识。 特殊网络结构 自组织竞争网的无导师指导学习是通过其特殊的网络结构实现的。自组织竞争网在结构上属于层次型网络,共同特点是都具有竞争层。 自组织竞争网络的竞争层,各神经元之间存在横向连接,各连接被赋予权值。通过竞争学习规则,达到自组织,实现对输入样本的自动分类。 特殊学习规则 竞争学习规则:竞争层神经元之间相互竞争以求被激活,结果在每一轮竞争中只有一个神经元被激活。这个被激活的神经元称为“获胜神经元”,而其它神经元的状态被抑制。然后获胜神经元及其附近神经元的对应权值将被调整以反映竞争结果。 主要的竞争学习规则有“胜者为王”和Kohonen规则等。“胜者为王”只修改获胜神经元权值,Kohonen规则修改获胜神经元邻域内各神经元权值。

一种递归模糊神经网络自适应控制方法

一种递归模糊神经网络自适应控制方法 毛六平,王耀南,孙 炜,戴瑜兴 (湖南大学电气与信息工程学院,湖南长沙410082) 摘 要: 构造了一种递归模糊神经网络(RFNN ),该RFNN 利用递归神经网络实现模糊推理,并通过在网络的第 一层添加了反馈连接,使网络具有了动态信息处理能力.基于所设计的RFNN ,提出了一种自适应控制方案,在该控制方案中,采用了两个RFNN 分别用于对被控对象进行辨识和控制.将所提出的自适应控制方案应用于交流伺服系统,并给出了仿真实验结果,验证了所提方法的有效性. 关键词: 递归模糊神经网络;自适应控制;交流伺服中图分类号: TP183 文献标识码: A 文章编号: 037222112(2006)1222285203 An Adaptive Control Using Recurrent Fuzzy Neural Network M AO Liu 2ping ,W ANG Y ao 2nan ,S UN Wei ,DAI Y u 2xin (College o f Electrical and Information Engineering ,Hunan University ,Changsha ,Hunan 410082,China ) Abstract : A kind of recurrent fuzzy neural network (RFNN )is constructed ,in which ,recurrent neural network is used to re 2alize fuzzy inference temporal relations are embedded in the network by adding feedback connections on the first layer of the network.On the basis of the proposed RFNN ,an adaptive control scheme is proposed ,in which ,two proposed RFNNs are used to i 2dentify and control plant respectively.Simulation experiments are made by applying proposed adaptive control scheme on AC servo control problem to confirm its effectiveness. K ey words : recurrent fuzzy neural network ;adaptive control ;AC servo 1 引言 近年来,人们开始越来越多地将神经网络用于辨识和控 制动态系统[1~3].神经网络在信号的传播方向上,可以分为前馈神经网络和递归神经网络.前馈神经网络能够以任意精度逼近任意的连续函数,但是前馈神经网络是一个静态的映射,它不能反映动态的映射.尽管这个问题可以通过增加延时环节来解决,但是那样会使前馈神经网络增加大量的神经元来代表时域的动态响应.而且,由于前馈神经网络的权值修正与网络的内部信息无关,使得网络对函数的逼近效果过分依赖于训练数据的好坏.而另一方面,递归神经网络[4~7]能够很好地反映动态映射关系,并且能够存储网络的内部信息用于训练网络的权值.递归神经网络有一个内部的反馈环,它能够捕获系统的动态响应而不必在外部添加延时反馈环节.由于递归神经网络能够反映动态映射关系,它在处理参数漂移、强干扰、非线性、不确定性等问题时表现出了优异的性能.然而递归神经网络也有它的缺陷,和前馈神经网络一样,它的知识表达能力也很差,并且缺乏有效的构造方法来选择网络结构和确定神经元的参数. 递归模糊神经网络(RFNN )[8,9]是一种改进的递归神经网络,它利用递归网络来实现模糊推理,从而同时具有递归神经网络和模糊逻辑的优点.它不仅可以很好地反映动态映射关系,还具有定性知识表达的能力,可以用人类专家的语言控制规则来训练网络,并且使网络的内部知识具有明确的物理意 义,从而可以很容易地确定网络的结构和神经元的参数. 本文构造了一种RFNN ,在所设计的网络中,通过在网络的第一层加入反馈连接来存储暂态信息.基于该RFNN ,本文还提出了一种自适应控制方法,在该控制方法中,两个RFNN 被分别用于对被控对象进行辨识和控制.为了验证所提方法的有效性,本文将所提控制方法用于交流伺服系统的控制,并给出了仿真实验结果. 2 RFNN 的结构 所提RFNN 的结构如图1所示,网络包含n 个输入节点,对每个输入定义了m 个语言词集节点,另外有l 条控制规则 节点和p 个输出节点.用u (k )i 、O (k ) i 分别代表第k 层的第i 个节点的输入和输出,则网络内部的信号传递过程和各层之间的输入输出关系可以描述如下: 第一层:这一层的节点将输入变量引入网络.与以往国内外的研究不同,本文将反馈连接加入这一层中.第一层的输入输出关系可以描述为:O (1)i (k )=u (1)i (k )=x (1)i (k )+w (1)i (k )?O (1)i (k -1), i =1,…,n (1) 之所以将反馈连接加入这一层,是因为在以往的模糊神经网络控制器中,控制器往往是根据系统的误差及其对时间的导数来决定控制的行为,在第一层中加入暂态反馈环,则只需要以系统的误差作为网络的输入就可以反映这种关系,这样做不仅可以简化网络的结构,而且具有明显的物理意义,使 收稿日期:2005207201;修回日期:2006206218 基金项目:国家自然科学基金项目(N o.60075008);湖南省自然科学基金(N o.06JJ50121)   第12期2006年12月 电 子 学 报 ACT A E LECTRONICA SINICA V ol.34 N o.12 Dec. 2006

一个神经网络控制系统的稳定性判据的方法

摘要:本文讨论了基于李雅普诺夫方法分析神经网络控制系统的稳定性。首先,文章指出神经网络系统的动态可以由视为线性微分包含(LDI)的一类非线性系统表示。其次,对于这类非线性系统的稳定条件是推导并利用单神经系统和反馈神经网络控制系统的稳定性分析。此外,用图形方式显示非线性系统参数位置的这种参数区域表示方法(PR)提出了通过引入新的顶点和最小值的概念。从这些概念上可以推导出一个能有效地找到李雅普诺夫函数的重要理论。单个神经的神经系统的稳定性标准时由参数区域来决定的。最后,分析了包括神经网络设备和神经网络控制器为代表的神经网络控制系统的稳定性。 1.介绍 最近,已经有很多关于神经网络的自适应控制的研究,例如:在机器人领域,川户提出了一种使用的学习控制系统,控制系统的一项关键指标就是他的稳定性,然而分析像基于神经网络的控制系统这样的非线性系统的稳定性是非常难的。 Nguyen和Widrow 设计了一种在电脑上模拟卡车拖车的神经网络控制器。这个设计主要分为两大部分。第一部分是通过神经网络来学习设备的动态,这一部分被称为“仿真器”。第二部分是通过最小化的性能函数来计算出神经网络网络控制器的参数(权值)。但是,他们没有分析神经网络控制系统的稳定性。一项稳定性分析标准工具讲有利于神经网络控制应用到许多实际问题中。 最近,这类可被视为线性微分包含(LDI)的非线性系统的稳定条件已经被作者推导出来,再引用的[7][8]中讨论了。其中一项保证LDI稳定的充分条件与李雅普诺夫稳定性定理是相一致的。本文应用LDI的稳定条件和Nguyen与Widrow的方法来分析神经网络系统的稳定性。文中选取了一种代表神经网络状态的方法。此外,我们表明包含由近似于神经网络设备和神经网络控制器组成的神经网络反馈控制系统也可以分析神经网络是否能稳定。这意味着,本文提出的稳定条件可以分析神经网络反馈控制系统。本文的构成如下:第二节展示了一种文中的神经网络系统。第三节给出了LDI的稳定条件。第四节提出了一个以图形方式显示LDI参数的参数区域表示方法(PR)并推导出一个有效导出李雅普诺夫函数的重要定理。第五节阐述了神经网络系统的LDI表示方法。第六节介绍了用PR方法表示单神经系统和神经网络反馈系统的稳定标准。 2.神经控制系统 假设一个神经网络函数是 x(k + I) =P( x ( k )u, (k)), 他的神经网络反馈控制系统的函数是:x(k + 1) = P(x(k),u(k)) 和 u(k) = C(x(k)),其中x(k)是实属范围内的状态向量,u(k)是实属范围内的输入向量。P和C分别表示神经网络设备和神经网络控制器的非线性传递函数。如图1,显示了一个单一的神经网络系统和神经网络反馈控制系统。假设每个神经元的输出函数f ( u )都是可微分的,在k > 0的情况下,我们可以得到:f ( 0 ) = 0, f(v)∈[-k,k],对于所有的v都成立 此外,假设所有的传递权重都已经被学习方法所确定了,例如反向传播神经网络在神经网络控制稳定性分析之前。在一个单一的神经网络系统中,因为我们分析神经网络系统的动态平衡稳定性,所以设定. u(k) = 0。

神经网络控制修订稿

神经网络控制 公司标准化编码 [QQX96QT-XQQB89Q8-NQQJ6Q8-MQM9N]

人工神经网络控制 摘要: 神经网络控制,即基于神经网络控制或简称神经控制,是指在控制系统中采用神经网络这一工具对难以精确描述的复杂的非线性对象进行建模,或充当控制器,或优化计算,或进行推理,或故障诊断等,亦即同时兼有上述某些功能的适应组合,将这样的系统统称为神经网络的控制系统。本文从人工神经网络,以及控制理论如何与神经网络相结合,详细的论述了神经网络控制的应用以及发展。 关键词: 神经网络控制;控制系统;人工神经网络 人工神经网络的发展过程 神经网络控制是20世纪80年代末期发展起来的自动控制领域的前沿学科之一。它是智能控制的一个新的分支,为解决复杂的非线性、不确定、不确知系统的控制问题开辟了新途径。是(人工)神经网络理论与控制理论相结合的产物,是发展中的学科。它汇集了包括数学、生物学、神经生理学、脑科学、遗传学、人工智能、计算机科学、自动控制等学科的理论、技术、方法及研究成果。 在控制领域,将具有学习能力的控制系统称为学习控制系统,属于智能控制系统。神经控制是有学习能力的,属于学习控制,是智能控制的一个分支。神经控制发展至今,虽仅有十余年的历史,已有了多种控制结构。如神经预测控制、神经逆系统控制等。 生物神经元模型 神经元是大脑处理信息的基本单元,人脑大约含1012个神经元,分成约1000种类型,每个神经元大约与 102~104个其他神经元相连接,形成极为错综复杂而又灵活多变的神经网络。每个神经元虽然都十分简单,但是如此大量的神经元之间、如此复杂的连接却可以演化出丰富多彩的行为方式,同时,如此大量

Kohonen算法实现自组织特征映射神经网络

Kohonen算法实现自组织特征映射神经网络 Kohonen算法实现自组织特征映射神经网络 2010-12-23 14:28设有现有一个样本数据集,含有4个模式类,,,,各个类别含有5个数据,每个数据是一个二维向量[x,y]。则需要设定4个输出层神经元来构建SOM网络,由于输入数据是二维的向量,所以输入层神经元有2个。 为了使SOM网络的设计和实行过程在作图中清晰可见,对输入的样本数据集均进行归一化处理。: A = 0.8776 0.4794 0.8525 0.5227 0.8253 0.5646 0.7961 0.6052 0.7648 0.6442 : B= -0.6663 0.7457 -0.7027 0.7115 -0.7374 0.6755 -0.7702 0.6378 -0.8011 0.5985

: C= -0.5748 -0.8183 -0.5332 -0.8460 -0.4903 -0.8716 -0.4461 -0.8950 -0.4008 -0.9162 : D= 0.9602 -0.2794 0.9729 -0.2311 0.9833 -0.1822 0.9911 -0.1328 0.9965 -0.0831 第一步:设定初始初始权值w,暂时设定为位于极坐标0°,90°,180°,270°角处的四个单位向量;设定初始学习率rate1max和学习率最小值rate1min;设定初始领域半径r1max和领域半径截止值r1min;设定输出层神经元个数为4。 第二步:输入新的模式向量X,即输入以上四类数据样本集A,B,C,D为X。 接着开始Kohonen算法的迭代运算过程,求解最佳权值w即聚类中心

自组织神经网络的优化

自组织多项式神经网络的优化 摘要:由组数据处理方法(GMDH )自动构建和训练的自组织多项式神经网络(SOPNN )模型仅仅优化了 SOPNN 网络顶层节点的权值,该模型的主要缺点是只进行了模型权值的部分优化。为了估计经过改善所 获得模型能达到的近似精确度,粒子群优化(PSO )已经被使用去优化所有多项式节点的权值。因为在计 算上PSO 模型通常是昂贵和耗时的,为此使用了一个更加有效的Levenberg-Marquardt (LM )算法去优化 SOPNN 。由LM 算法优化后的SOPNN 模型性能上胜过了基于ANN 和SVM 的模型。本文的研究是基于时 间约束下热动力影响的液体流动测量的元模型。通过多层叠加震荡递推关系的学习,我们演示了优化后的 SOPNN 模型的显著特性。 关键词:多项式神经网络;GMDH ;LM 算法;粒子群优化 绪论 SOPNN 网络的构建是通过将低阶多项式与多层多项式结构相结合,在这个网络中,低阶 多项式的系数用以最小化近似误差,其值是通过多项式回归获得。GMDH 模型在数字计算机 上很容易执行,对于低复杂网络,可以获得合理的近似精度。因为GMDH 在多项式回归和模 型选择中使用的是独立的数据集,致其不支持过度拟合。当将其应用于非线性行为的实时补 偿时,GMDH 和其他常见的模型所采取的策略一样,其自组织特性会去除这个复杂结构模型 和参数。 往往是通过对单个参数的测量评价SOPNN 网络的性能,例如最小方差,其主要是最小 化了模型的近似误差而并非模型的复杂度。当建立具有时间约束性应用的模型时,其约束可 以被有效的嵌入到模型选择指标中。当考虑相对于复杂度的精度时,与多层感知器(MLP ) 比较,原SOPNN 模型的性能处于劣势。 由GMDH 算法优化的SOPNN 模型只是对模型权值的部分优化,因为GMDH 算法仅仅优 化了输出节点的权值。在多次训练迭代中,被多项式回归计算后的权值仍然不变。模型在被 遗传编程和反向传播(BP )训练后,其精度和预测可以有很大的提高。但是BP 往往会在局部 最小值处卡住,所以本文提出了一种更加强大的优化方法去训练其权值。 粒子群优化算法(PSO )是一种自然仿生算法,其通过模仿鸟群的飞行来优化模型的权 值。PSO 可以优化所有多项式节点的权值,在实验中用于估计原SOPNN 模型的近似能力。 因为PSO 模型在计算上是昂贵和费时的,之后,我们采用了一种更加复杂的LM 算法去优化 模型的权值。通过模拟,LM 算法的收敛速度数倍于SOPNN 模型。 1、GMDH 、PSO 、LM 算法 1.1、GMDH 算法 如下图所示是一个完全的2层前向3维系统,图中i p ,λ表示一个对应于λ层第i 个节点的 低阶低维多项式。

相关文档