文档库 最新最全的文档下载
当前位置:文档库 › 数学建模-神经网络

数学建模-神经网络

数学建模-神经网络
数学建模-神经网络

-230-

第十九章神经网络模型

§1 神经网络简介

人工神经网络是在现代神经科学的基础上提出和发展起来的,旨在反映人脑结构及

功能的一种抽象数学模型。自1943 年美国心理学家W. McCulloch 和数学家W. Pitts 提

出形式神经元的抽象数学模型—MP 模型以来,人工神经网络理论技术经过了50 多年

曲折的发展。特别是20 世纪80 年代,人工神经网络的研究取得了重大进展,有关的理

论和方法已经发展成一门界于物理学、数学、计算机科学和神经生物学之间的交叉学科。它在模式识别,图像处理,智能控制,组合优化,金融预测与管理,通信,机器人以及

专家系统等领域得到广泛的应用,提出了40 多种神经网络模型,其中比较著名的有感

知机,Hopfield 网络,Boltzman 机,自适应共振理论及反向传播网络(BP)等。在这

里我们仅讨论最基本的网络模型及其学习算法。

1.1 人工神经元模型

下图表示出了作为人工神经网络(artificial neural network,以下简称NN)的基本

单元的神经元模型,它有三个基本要素:

(i)一组连接(对应于生物神经元的突触),连接强度由各连接上的权值表示,权

值为正表示激活,为负表示抑制。

(ii)一个求和单元,用于求取各输入信号的加权和(线性组合)。

(iii)一个非线性激活函数,起非线性映射作用并将神经元输出幅度限制在一定范

围内(一般限制在(0,1)或(?1,1)之间)。

此外还有一个阈值k

θ(或偏置k k b = ?θ)。

以上作用可分别以数学式表达出来:

Σ=

=

p

j

k kj j u w x

1

,k k k v = u ?θ,( ) k k y =?v

式中p x , x , , x 1 2 L 为输入信号,k k kp w ,w , ,w 1 2 L 为神经元k 之权值,k u 为线性组合结果,k

θ为阈值,?(?)为激活函数,k y 为神经元k 的输出。

若把输入的维数增加一维,则可把阈值k

θ包括进去。例如

Σ=

p

j

k kj j v w x

,( ) k k y =?u

此处增加了一个新的连接,其输入为1 0 x = ?(或+1),权值为k k w =θ0 (或k b ),如下图所示。

-231-

激活函数?(?)可以有以下几种:

(i)阈值函数

???

<

=

0, 0

1, 0

( )

v

v

?v (1)

即阶梯函数。这时相应的输出k y 为

???

<

=

0, 0

1, 0

k

k

k v

v

y

其中Σ=

= ?

p

j

k kj j k v w x

1

θ,常称此种神经元为M ?P模型。

(ii)分段线性函数

?

??

?

?

≤?

+ ?<<

=

0, 1

(1 ), 1 1

2

1

1, 1

( )

v

v v

v

?v (2)

它类似于一个放大系数为1 的非线性放大器,当工作于线性区时它是一个线性组合器,放大系数趋于无穷大时变成一个阈值单元。

(iii)sigmoid 函数

最常用的函数形式为

1 exp( )

( ) 1

v

v

α

?

+ ?

= (3)

参数α>0可控制其斜率。另一种常用的是双曲正切函数

1 exp( )

1 exp( )

2

( ) tanh

v

v v v

+ ?

??

= ??

?

?= ?(4)

这类函数具有平滑和渐近性,并保持单调性。

Matlab 中的激活(传递)函数如下表所示:

函数名功能

purelin 线性传递函数

-232-

hardlim 硬限幅传递函数

hardlims 对称硬限幅传递函数

satlin 饱和线性传递函数

satlins 对称饱和线性传递函数

logsig 对数S 形传递函数

tansig 正切S 形传递函数

radbas 径向基传递函数

compet 竞争层传递函数

各个函数的定义及使用方法,可以参看Matlab 的帮助(如在Matlab 命令窗口运行help tansig,可以看到tantig 的使用方法,及tansig 的定义为1

1

( ) 2 2 ?

+

= e?v

?v )。

1.2 网络结构及工作方式

除单元特性外,网络的拓扑结构也是NN 的一个重要特性。从连接方式看NN 主要

有两种。

(i)前馈型网络

各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入

单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第i ?1层输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。

(ii)反馈型网络

所有结点都是计算单元,同时也可接受输入,并向外界输出。

NN 的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算单元状态变化,以达到某种稳定状态。

从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络

按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解最优化问题。

§2 蠓虫分类问题与多层前馈网络

2.1 蠓虫分类问题

蠓虫分类问题可概括叙述如下:生物学家试图对两种蠓虫(Af 与Apf)进行鉴别,

依据的资料是触角和翅膀的长度,已经测得了9 支Af 和6 支Apf 的数据如下:

Af: (1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70),

(1.48,1.82),(1.54,1.82),(1.56,2.08).

Apf: (1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).

现在的问题是:

(i)根据如上资料,如何制定一种方法,正确地区分两类蠓虫。

(ii)对触角和翼长分别为(1.24,1.80),(1.28,1.84)与(1.40,2.04)的3 个标本,用所得

到的方法加以识别。

(iii)设Af 是宝贵的传粉益虫,Apf 是某疾病的载体,是否应该修改分类方法。

如上的问题是有代表性的,它的特点是要求依据已知资料(9 支Af 的数据和6 支

Apf 的数据)制定一种分类方法,类别是已经给定的(Af 或Apf)。今后,我们将9 支-233-

Af 及6 支Apf 的数据集合称之为学习样本。

2.2 多层前馈网络

为解决上述问题,考虑一个其结构如下图所示的人工神经网络,

激活函数由

1 exp( )

( ) 1

v

v

α

?

+ ?

=

来决定。图中最下面单元,即由?所示的一层称为输入层,用以输入已知测量值。在

我们的例子中,它只需包括两个单元,一个用以输入触角长度,一个用以输入翅膀长度。中间一层称为处理层或隐单元层,单元个数适当选取,对于它的选取方法,有一些文献进行了讨论,但通过试验来决定,或许是最好的途径。在我们的例子中,取三个就足够了。最上面一层称为输出层,在我们的例子中只包含二个单元,用以输出与每一组输入数据相对应的分类信息.任何一个中间层单元接受所有输入单元传来的信号,并把处理后的结果传向每一个输出单元,供输出层再次加工,同层的神经元彼此不相联接,输入与输出单元之间也没有直接联接。这样,除了神经元的形式定义外,我们又给出了网络结构。有些文献将这样的网络称为两层前传网络,称为两层的理由是,只有中间层及输出层的单元才对信号进行处理;输入层的单元对输入数据没有任何加工,故不计算在层数之内。

为了叙述上的方便,此处引人如下记号上的约定:令s 表示一个确定的已知样品标

号,在蠓虫问题中,s = 1,2,L,15,分别表示学习样本中的15 个样品;当将第s个样

品的原始数据输入网络时,相应的输出单元状态记为O s (i = 1,2)

i ,隐单元状态记为

) 3 , 2 , 1 ( = j H sj

,输入单元取值记为I s (k = 1,2)

k 。请注意,此处下标i, j,k 依次对应于

输出层、中间层及输入层。在这一约定下,从中间层到输出层的权记为ij w ,从输入层

到中间层的权记为jk w 。如果ij w ,jk w 均已给定,那么,对应于任何一组确定的输入( , ) 1 2

I s I s ,网络中所有单元的取值不难确定。事实上,对样品s而言,隐单元j的输入

Σ=

=

2

k 1

s

jk k

s

j h w I (5)

相应的输出状态是

Σ=

= =

2

1

( ) ( )

k

s

jk k

s

j

sj H

?

h

?

w

I

6)

由此,输出单元i 所接收到的迭加信号是

-234-

ΣΣΣ

= = =

= =

3

1

3

1

2

1

( )

j j k

s

ij jk k

sj

ij

s

i h w H w ?w I (7)

网络的最终输出是

( ) ( ) ( ( ))

3

1

2

1

3

1

ΣΣΣ

= = =

= = =

j k

s

ij jk k

j

sj

ij

s

i

s

i O ?h ?w H ?w ?w I (8)

这里,没有考虑阈值,正如前面已经说明的那样,这一点是无关紧要的。还应指出的是,对于任何一组确定的输入,输出是所有权{ , } ij jk w w 的函数。

如果我们能够选定一组适当的权值{ , } ij jk w w ,使得对应于学习样本中任何一组Af

样品的输入( , ) 1 2

I s I s ,输出( , ) (1,0) 1 2 O s O s = ,对应于Apf 的输入数据,输出为(0,1),

那么蠓虫分类问题实际上就解决了。因为,对于任何一个未知类别的样品,只要将其触角及翅膀长度输入网络,视其输出模式靠近(1,0)亦或(0,1),就可能判断其归属。当然,有可能出现介于中间无法判断的情况。现在的问题是,如何找到一组适当的权值,实现上面所设想的网络功能。

2.3 向后传播算法

对于一个多层网络,如何求得一组恰当的权值,使网络具有特定的功能,在很长一

段时间内,曾经是使研究工作者感到困难的一个问题,直到1985 年,美国加州大学的

一个研究小组提出了所谓向后传播算法(Back-Propagation),使问题有了重大进展,这

一算法也是促成人工神经网络研究迅猛发展的一个原因。下面就来介绍这一算法。

如前所述,我们希望对应于学习样本中Af 样品的输出是(1,0),对应于Apf 的输出

是(0,1),这样的输出称之为理想输出。实际上要精确地作到这一点是不可能的,只能

希望实际输出尽可能地接近理想输出。为清楚起见,把对应于样品s 的理想输出记为{ s}

i T ,那么

= Σ?

i s

s

i

s

i E W T O

,

( )2

2

( ) 1 (9)

度量了在一组给定的权下,实际输出与理想输出的差异,由此,寻找一组恰当的权的问题,自然地归结为求适当W 的值,使E(W)达到极小的问题。将式(8)代入(9),有ΣΣΣ

= =

= ?

s i j k

s

ij jk k

s

i E W T w w I

,

2

3

1

2

1

[ ( ( ))]

2

( ) 1 ??(10)

易知,对每一个变量ij w 或ij w 而言,这是一个连续可微的非线性函数,为了求得其极

小点与极小值,最为方便的就是使用最速下降法。最速下降法是一种迭代算法,为求出

E(W)的(局部)极小,它从一个任取的初始点0 W 出发,计算在0 W 点的负梯度方向—( ) 0 ?E W ,这是函数在该点下降最快的方向;只要( ) 0 0 ?E W ≠,就可沿该方向移动

一小段距离,达到一个新的点( ) 1 0 0 W =W ?η?E W ,η是一个参数,只要η足够小,

定能保证( ) ( ) 1 0 E W

的具体形式是非常重要的,下面我们就来给出这一形式表达。

对于隐单元到输出单元的权ij w 而言,最速下降法给出的每一步的修正量是

-235-

= Σ? = Σ

?

?

Δ = ?

s s

sj

s

i

sj

s

i

s

i

s

i

ij

ij T O h H H

w

w ηE η[ ]?'( ) ηδ(11)

此处令

' ( )[ s ]

i

s

i

s

i

s

i δ=?h T ?O (12)

对输入单元到隐单元的权jk w

= Σ?

?

?

Δ = ?

s i

sj

sj

ij

s

i

s

i

s

i

jk

jk T O h w h I

w

w E

,

ηη[ ]?'( ) ?'( )

= Σ= Σ

s

s

k

s

j

s i

s

k

sj

ij

s

i ηδw ?h I ηδI

,

' ( ) (13)

此处

= Σ

i

s

ij i

sj

s

j δ?'(h ) w δ

从(11)和(13)式可以看出,所有权的修正量都有如下形式,即

Δ = Σ

s

sq

sp

pq w ηδv (14)

指标p 对应于两个单元中输出信号的一端,q 对应于输入信号的一端,v 或者代表H 或者代表I 。形式上看来,这一修正是“局部”的,可以看作是Hebb 律的一种表现形式。还应注意,s

i δ

由实际输出与理想输出的差及s

i h 决定,而s

j δ则需依赖s

i δ

算出,因此,

这一算法才称为向后传播算法。稍加分析还可知道,利用由(11)~(13)式所给出的

计算安排,较之不考虑sp

δ的向后传播,直接计算所有含?'的原表达式,极大地降低了

计算工作量。这组关系式称作广义δ?法则,它们不难推广到一般的多层网络上去。

利用这一迭代算法,最终生成在一定精度内满足要求的{ , } ij jk w w 的过程,称为人

工神经网络的学习过程。可以看出,这里所提供的学习机制是元与元之间权的不断调整,学习样本中任何一个样品所提供的信息,最终将包含在网络的每一个权之中。参数η的

大小则反映了学习效率。

为了更有效地应用BP 算法,我们做出如下一些补充说明。

(i)在式(11)与(13)中,ij jk Δw ,Δw 表示为与所有样品s有关的求和计算。

实际上,我们还可以每次仅考虑输入一个样品所造成的修正,然后,按照随机选取的顺序,将所有样品逐个输入,不断重复这一手续,直至收敛到一个满意的解为止。

(ii)在如上的算法中,利用实际输出与理想输出差的平方和作为度量{ , } ij jk w w 优

劣的标准,这并不是唯一的度量方式,完全可以从其它的函数形式出发,例如从相对熵出发,导出相应的算法。

(iii)在如上的讨论中使用的是最速下降法,显然,这也不是唯一的选择,其它的

非线性优化方法,诸如共轭梯度法,拟牛顿法等,都可用于计算。为了加速算法的收敛速度,还可以考虑各种不同的修正方式。

(iv)BP 算法的出现,虽然对人工神经网络的发展起了重大推动作用,但是这一

算法仍有很多问题.对于一个大的网络系统,BP 算法的工作量仍然是十分可观的,这

主要在于算法的收敛速度很慢。更为严重的是,此处所讨论的是非线性函数的优化,那么它就无法逃脱该类问题的共同困难:BP 算法所求得的解,只能保证是依赖于初值选

取的局部极小点。为克服这一缺陷,可以考虑改进方法,例如模拟退火算法,或从多个

-236-

随机选定的初值点出发,进行多次计算,但这些方法都不可避免地加大了工作量。

2.4 蠓虫分类问题的求解

下面利用上文所叙述的网络结构及方法,对蠓虫分类问题求解。编写Matlab 程序

如下:

clear

p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;

1.40,1.70;1.48,1.82;1.54,1.82;1.56,

2.08];

p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00

1.28,

2.00;1.30,1.96];

p=[p1;p2]';

pr=minmax(p);

goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];

plot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o')

net=newff(pr,[3,2],{'logsig','logsig'});

net.trainParam.show = 10;

net.trainParam.lr = 0.05;

net.trainParam.goal = 1e-10;

net.trainParam.epochs = 50000;

net = train(net,p,goal);

x=[1.24 1.80;1.28 1.84;1.40 2.04]';

y0=sim(net,p)

y=sim(net,x)

§3 处理蠓虫分类的另一种网络方法

3.1 几个有关概念

在介绍本节主要内容之前,首先说明几个不同的概念。在上一节中,我们把利用

BP 算法确定联接强度,即权值的过程称为“学习过程”,这种学习的特点是,对任何一个输入样品,其类别事先是已知的,理想输出也已事先规定,因而从它所产生的实际输出与理想输出的异同,我们清楚地知道网络判断正确与否,故此把这一类学习称为在教师监督下的学习;与它不同的是,有些情况下学习是无监督的,例如,我们试图把一组样品按其本身特点分类,所要划分的类别是事先未知的,需要网络自身通过学习来决定,因而,在学习过程中,对每一输入所产生的输出也就无所谓对错,对于这样的情况,显然BP 算法是不适用的。

另一个有关概念是所谓有竞争的学习。在上节所讨论的蠓虫分类网络中,尽管我们

所希望的理想输出是(1,0)或(0,1),但实际输出并不如此,一般而言,两个输出单元均

同时不为0。与此不同,我们完全可以设想另外一种输出模式:对应任何一组输入,所

有输出单元中,只允许有一个处于激发态,即取值为1,其它输出单元均被抑制,即取

值为0。一种形象的说法是,对应任何一组输入,要求所有的输出单元彼此竞争,唯一

的胜利者赢得一切,失败者一无所获,形成这样一种输出机制的网络学习过程,称为有竞争的学习。

3.2 最简单的无监督有竞争的学习

本节叙述一种无监督有竞争的网络学习方法,由此产生的网络可用来将一组输入样

品自动划分类别,相似的样品归于同一类别,因而激发同一输出单元,这一分类方式,

是网络自身通过学习,从输入数据的关系中得出的。

蠓虫分类问题对应有教师的网络学习过程,显然不能由如上的方法来解决。但在这

种无监督有竞争的学习阐明之后,很容易从中导出一种适用于有监督情况的网络方法;此外,本节所介绍的网络,在数据压缩等多种领域,都有其重要应用。

-237-

考虑一个仅由输入层与输出层组成的网络系统,输入单元数目与每一样品的测量值

数目相等,输出单元数目适当选取。每一个输入单元与所有输出单元联接,第j 个输入元到第i 个输出元的权记为ij w ,同层单元间无横向联接。无妨假设所有输入数值均已规化到[?1,1]之间,又因为是有竞争的学习,输出单元只取0 或1 两个值,且对应每一

组输入,只有一个输出元取1。

取1 的输出元记为i*,称之为优胜者.对于任何一组输入s,规定优胜者是有最大

净输入的输出元,即对输入( , , ) 1 n I = I L I 而言,

=Σ≡?

j

i ij j i h w I W I (15)

取最大值的单元,其中i W 是输出元i 所有权系数组成的向量,也就是说

W I W I i i?≥?* ,(?i) (16)

如果权向量是按照Σ=

j

ij w2 1的方式标准化的,(16)式等价于

| | | | * W I W I i i ?≤?,(?i) (17)

即优胜者是其标准化权向量最靠近输入向量的输出元。令1 * = i O ,其余的输出

= 0 i O 。这样的输出规定了输入向量的类别,但为了使这种分类方式有意义,问题化

为如何将学习样本中的所有样品,自然地划分为聚类,并对每一聚类找出适当的权向量。为此,采用如下的算法:随机取定一组不大的初始权向量,注意不使它们有任何对称性。然后,将已知样品按照随机顺序输入网络。对输入样品s,按上文所述确定优胜者i*,

对所有与i*有关的权作如下修正

( ) * i* j

sj

i j Δw =ηI ?w (18)

所有其它输出单元的权保持不变。注意到1 * = i O ,O 0(i i* ) i = ≠,所有权的修正公式可统一表示为

( ) * i* j

sj

i j i Δw =ηO I ?w

这一形式也可视为Hebb 律的一种表现。(18)式的几何意义是清楚的,每次修正将优

胜者的权向量向输入向量移近一小段距离,这使得同一样品再次输入时,i*有更大的

获胜可能。可以合理地预期,反复重复以上步骤,使得每个输出单元对应了输入向量的一个聚类,相应的权向量落在了该聚类样品的重心附近。当然,这只是一个极不严密的

特别应当指出,上述算法,对于事先按照Σ= 1 j I 标准化了的输入数据更为适用,

整个过程不难由计算机模拟实现。

为了更有效地使用如上算法,下面对实际计算时可能产生的问题,作一些简要说明。

首先,如果初始权选择不当,那么可能出现这样的输出单元,它的权远离任何输入

向量,因此,永远不会成为优胜者,相应的权也就永远不会得到修正,这样的单元称之为死单元。为避免出现死单元,可以有多种方法。一种办法是初始权从学习样本中抽样选取,这就保证了它们都落在正确范围内;另一种办法是修正上述的学习算法,使得每

一步不仅调整优胜者的权,同时也以一个小得多的η值,修正所有其它的权。这样,对于总是失败的单元,其权逐渐地朝着平均输入方向运动,最终也会在某一次竞争中取胜。此外,还存在有多种处理死单元的方法,感兴趣的读者可从文献中找到更多的方法。

-238-

另外一个问题是这一算法的收敛性。如果式(18)或(19)中反映学习效率的参数

η取为一个固定常数,那么权向量永远不会真正在某一有限点集上稳定下来。因此,应当考虑在公式中引进随学习时间而变化的收敛因子。例如,取= t = t ?a 0 ηη( ) η,0

量,η下降太快,则会使学习变得无效。

3.3 LVQ 方法

上述有竞争学习的一个最重要应用是数据压缩中的向量量子化方法(Vector Quantization)。它的基本想法是,把一个给定的输入向量集合I s分成M 个类别,然后

用类别指标来代表所有属于该类的向量。向量分量通常取连续值,一旦一组适当的类别确定之后,代替传输或存储输入向量本身,可以只传输或存储它的类别指标。所有的类别由M 个所谓“原型向量”来表示,我们可以利用一般的欧氏距离,对每一个输入向

量找到最靠近的原型向量,作为它的类别。显然,这种分类方法可以通过有竞争的学习直接得到。一旦学习过程结束,所有权向量的集合,便构成了一个“电码本”。

一般而言,上述无监督有竞争的学习,实际提供了一种聚类分析方法,对如蠓虫分

类这种有监督的问题并不适用。1989 年,Kohonen 对向量量子化方法加以修改,提出

了一种适用于有监督情况的学习方法,称为学习向量量子化(Learning Vector Quantization),该方法可用于蠓虫分类问题。在有监督的情况下,学习样品的类别是事先已知的,与此相应,每个输出单元所对应的类别也事先作了规定,但是,代表同一类别的输出单元可以不止一个。

在LVQ 中,对于任一输入向量,仍按无监督有竞争的方式选出优胜者i*,但权的

修正规则则依输入向量的类别与i*所代表的是否一致而不同,确切地说,令

??

??

?

??

?

不一致情况

一致情况

( )

( )

*

*

*

i j

sj

i j

sj

i j I w

I w

w

η

η

前一种情况,修正和无监督的学习一致,权朝向样品方向移动一小段距离;后一种则相反,权向离开样品方向移动,这样就减少了错误分类的机会。

对于上述的蠓虫分类问题,我们编写Matlab 程序如下:

clear

p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;

1.40,1.70;1.48,1.82;1.54,1.82;1.56,

2.08];

p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00

1.28,

2.00;1.30,1.96];

p=[p1;p2]'

pr=minmax(p)

goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)]

net = newlvq(pr,4,[0.6,0.4])

net = train(net,p,goal)

Y = sim(net,p)

x=[1.24 1.80;1.28 1.84;1.40 2.04]'

sim(net,x)

习题十九

1. 利用BP 算法及sigmoid 函数,研究以下各函数的逼近问题

-239-

(i), 1 100 ( ) = 1 ≤x ≤

x

f x

(ii)

2

( ) sin , 0

π

f x = x ≤x ≤

对每一函数要完成如下工作:

①获取两组数据,一组作为训练集,一组作为测试集;

②利用训练集训练一个单隐层的网络;用测试集检验训练结果,改变隐层单元数,

研究它对逼近效果的影响。

2. 给定待拟合的曲线形式为

f (x) = 0.5 + 0.4sin(2πx)

在f (x)上等间隔取11 个点的数据,在此数据的输出值上加均值为0,均方差σ= 0.05

的正态分布噪声作为给定训练数据,用多项式拟合此函数,分别取多项式的阶次为1,3 和11 阶,图示出拟合结果,并讨论多项式阶次对拟合结果的影响。__

数学建模神经网络预测模型及程序

年份 (年) 1(1988) 2(1989) 3(1990) 4(1991) 5(1992) 6(1993) 7(1994) 8(1995) 实际值 (ERI) 年份 (年) 9(1996) 10(1997) 11(1998) 12(1999) 13(2000) 14(2001) 15(2002) 16(2003) 实际值 (ERI) BP 神经网络的训练过程为: 先用1988 年到2002 年的指标历史数据作为网络的输入,用1989 年到2003 年的指标历史数据作为网络的输出,组成训练集对网络进行训练,使之误差达到满意的程度,用这样训练好的网络进行预测. 采用滚动预测方法进行预测:滚动预测方法是通过一组历史数据预测未来某一时刻的值,然后把这一预测数据再视为历史数据继续预测下去,依次循环进行,逐步预测未来一段时期的值. 用1989 年到2003 年数据作为网络的输入,2004 年的预测值作为网络的输出. 接着用1990 年到2004 年的数据作为网络的输入,2005 年的预测值作为网络的输出.依次类推,这样就得到2010 年的预测值。 目前在BP 网络的应用中,多采用三层结构. 根据人工神经网络定理可知,只要用三层的BP 网络就可实现任意函数的逼近. 所以训练结果采用三层BP模型进行模拟预测. 模型训练误差为,隐层单元数选取8个,学习速率为,动态参数,Sigmoid参数,最大迭代次数3000.运行3000次后,样本拟合误差等于。 P=[。。。];输入T=[。。。];输出 % 创建一个新的前向神经网络 net_1=newff(minmax(P),[10,1],{'tansig','purelin'},'traingdm') % 当前输入层权值和阈值 inputWeights={1,1} inputbias={1} % 当前网络层权值和阈值 layerWeights={2,1} layerbias={2} % 设置训练参数 = 50; = ; = ; = 10000; = 1e-3;

2008数学建模国家一等奖论文(神经网络)

高等教育学费标准的研究 摘要 本文从搜集有关普通高等学校学费数据开始,从学生个人支付能力和学校办学利益获得能力两个主要方面出发,分别通过对这两个方面的深入研究从而制定出各自有关高等教育学费的标准,最后再综合考虑这两个主要因素,进一步深入并细化,从而求得最优解。 模块Ⅰ中,我们将焦点锁定在从学生个人支付能力角度制定合理的学费标准。我们从选取的数据和相关资料出发,发现1996年《高等学校收费管理暂行办法》规定高等学校学费占生均教育培养的成本比例最高不得超过25%,而由数据得到图形可知,从2002年开始学费占教育经费的比例超过了25%,并且生均学费和人均GDP 的比例要远远超过美国的10%到15%。由此可见,我国的学费的收取过高。紧接着,我们从个人支付能力角度出发,研究GDP 和学费的关系。并因此制定了修正参数,由此来获取生均学费的修正指标。随后,我们分析了高校专业的相关系数,从个人支付能力角度,探讨高校收费与专业的关系,进一步得到了高校收费标准1i i y G R Q = 。 在模块Ⅱ中,我们从学校办学利益获得能力出发,利用回归分析对学生应交的学杂费与教育经费总计、国家预算内教育经费、社会团体和公民个人办学经验、社会捐投资和其他费用的关系,发现学杂费与教育经费总计成正相关,与其他几项费用成负相关。对此产生的数据验证分析符合标准。然后,再根据专业相关系数来确定学校收取学费的标准。从而,得到了学校办学利益的收费标准2i i i y y R = 。 在模块Ⅲ中,为了获取最优解,我们综合了前面两个模块所制定的收费指标,并分别给予不同权系数,得到最终学费的表达式12i i C ay by =+。然后,我们从学校收费指标的权系数b 考虑,利用神经网络得到的区域划分,根据不同区域而计算出的权系数b 的范围。最终得到的表达式 ]12345**(1)(1.0502 1.1959 1.3108 1.36360.7929)**b i i C R G Q b x x x x x R =-+----;由此便可得到综合学费标准C 的取值范围。然后,我们随机选取了同一区域不同专业,并根据表达式计算这些专业的学费,结果发现对社会收益大,个人收益小的专业如地质学的学费范围为:3469.8~3506.3元之间;对社会收益小,个人收益大的专业如广告设计的学费范围为:7931.0~8014.5元之间。与通常高校实现的一刀切政策有了明显的优点。 最后,我们从本论文研究方向考虑,为优化高校费用标准的制定提出参考意见,如建立反馈制度和特殊生补贴制度的建议。 【关键字】相关系数 回归模型 自组织竞争神经网络

数学建模_BP神经网络算法模板

1.1 BP 神经网络原理简介 BP 神经网络是一种多层前馈神经网络,由输入、输出、隐藏层组成。该网络的主要特点是信号前向传递,误差反向传播。在前向传递中,输入信号从输入层经隐藏层逐层处理,直至输出层。每一层的神经元状态只影响下一层神经元状态。如果输出层得不到期望输出则转入反向传播,根据预测误差调整网络权值和阈值,从而使BP 神经网络预测输出不断逼近期望输出。结构图如下: 隐藏层传输函数选择Sigmoid 函数(也可以选择值域在(-1,1)的双曲正切函数,函数‘tansig ’),其数学表达式如下: x e 11)x ( f α-+=,其中α为常数 输出层传输函数选择线性函数:x )x (f = 1.隐藏层节点的选择 隐藏层神经元个数对BP 神经网络预测精度有显著的影响,如果隐藏层节点数目太少,则网络从样本中获取信息的能力不足,网络容易陷入局部极小值,有时可能训练不出来;如果隐藏层节点数目太多,则学习样本的非规律性信息会出现“过度吻合”的现象,从而导致学习时间延长,误差也不一定最佳,为此我们参照以下经验公式: 12+=I H ]10,1[ ,∈++=a a O I H I H 2log = 其中H 为隐含层节点数,I 为输入层节点数,O 为输出层节点数,a 为常数。 输入层和输出层节点的确定: 2.输入层节点和输出层节点的选择 输入层是外界信号与BP 神经网络衔接的纽带。其节点数取决于数据源的维数和输入特征向量的维数。选择特征向量时,要考虑是否能完全描述事物的本质特征,如果特征向量不能有效地表达这些特征,网络经训练后的输出可能与实际有较大的差异。因此在网络训练前,应全面收集被仿真系统的样本特性数据,并在数据处理时进行必要的相关性分析,剔除那些边沿和不可靠的数据,最终确定出数据源特征向量的维度。对于输出层节点的数目,往往需要根据实际应用情况灵活地制定。当BP 神经网络用于模式识别时,模式的自身特性就决定了输出的结果数。当网络作为一个分类器时,输出层节点数等于所需信息类别数。(可有可无) 训练好的BP 神经网络还只能输出归一化后的浓度数据,为了得到真实的数据

数学建模竞赛-神经网络

神经网络 例 解:设计BP网,编写文件ch14eg4.m,结构和参数见程序中的说明。clear;close all; x = [0:0.25:10]; y = 0.12*exp(-0.213*x)+0.54*exp(-0.17*x).*sin(1.23*x); % x,y分别为输入和目标向量 net=newff(minmax(x),[20,1],{'tansig','purelin'}); % 创建一个前馈网络 y0 = sim(net,x); % 仿真未经训练的网络net net.trainFcn='trainlm'; % 采用L-M优化算法TRAINLM net.trainParam.epochs = 500; net.trainParam.goal = 1e-6; % 设置训练参数[net,tr]=train(net,x,y); % 调用相应算法训练网络 y1 = sim(net,x); % 对BP网络进行仿真 E = y-y1; MSE=mse(E) % 计算仿真误差

figure; % 下面绘制匹配结果曲线 plot(x,y0,':',x,y1,'r*',x,0.12*exp(-0.213*x)+0.54*exp(-0.17*x).*sin(1.23*x),'b'); 运行如下: >> ch14eg4 MSE =9.6867e-007 例14.6 蠓虫分类问题。两种蠓虫Af和Apf已由生物学家W.L.Grogan和W.W.Wirth(1981)根据他们的触角长度和翅长加以区分。现测得6只Apf蠓虫和9只Af蠓虫的触长、翅长的数据如下: Apf: (1.14,1.78),(1.18,1.96),(1.20,1.86),(1.26,2.),(1.28,2.00),(1.30,1.96). Af: (1.24,1.72),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.4,1.7), (1.48,1.82),(1.54,1.82),(1.56,2.08) 请用恰当的方法对触长、翅长分别为(1.24,1.80),(1.28,1.84),(1.40,2.04)的3个样本进行识别。 解:设计一个Lvq神经网络进行分类。编写m文件ch14eg6.m clear; close all; Af=[1.24,1.36,1.38,1.38,1.38,1.4,1.48,1.54,1.56;1.27,1.74,1.64,1.82, 1.9,1.7,1.82,1.82,2.08]; Apf=[1.14 1.18 1.20 1.26 1.28 1.30;1.78 1.96 1.86 2.00 2.00 1.96]; x=[Af Apf];%输入向量 y0=[2*ones(1,9) ones(1,6)];%类2表示Af, 类1表示Apf y=ind2vec(y0);%将下标向量转换为单值向量作为目标向量 net = newlvq(minmax(x),8,[0.6,0.4]);%建立LVQ网络 net.trainParam.show=100; net.trainParam.epochs = 1000;%设置参数 net = train(net,x,y); ytmp=sim(net,x);%对网络进行训练并用原样本仿真 y1=vec2ind(ytmp);%将单值向量还原为下标向量作为输出向量 xt=[1.24,1.28,1.40;1.80,1.84,2.04];%测试输入样本 yttmp=sim(net,xt)%对网络用新样本进行仿真 yt=vec2ind(yttmp)%输出新样本所属类别 figure;%打开一个图形窗口 plot(Af(1,:),Af(2,:),'+',Apf(1,:),Apf(2,:),'o',xt(1,:),xt(2,:),'*');

最新数学建模bp神经网络.docx

BP神经网络 算法原理: 输入信号 x i通过中间节点(隐层点)作用于输出节点,经过非线形变换,产生输 出信号 y k,网络训练的每个样本包括输入向量x 和期望输出量d,网络输出值y 与期望输出值 d 之间的偏差,通过调整输入节点与隐层节点的联接强度取值w ij和隐层节点与输出节点之间的联接强度T jk以及阈值,使误差沿梯度方向下降,经过反复学习训练, 确定与最小误差相对应的网络参数(权值和阈值),训练即告停止。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。 变量定义: 设输入层有 n 个神经元,隐含层有p 个神经元 , 输出层有 q 个神经元 输入向量: x x1 , x2 ,L , x n 隐含层输入向量:hi hi1, hi2 ,L , hi p 隐含层输出向量:ho ho1 , ho2 ,L ,ho p 输出层输入向量:yi yi1, yi2 ,L , yi q 输出层输出向量:yo yo1, yo2 ,L , yo q 期望输出向量 : do d1, d2 ,L , d q 输入层与中间层的连接权值:w ih 隐含层与输出层的连接权值:w ho 隐含层各神经元的阈值: b h 输出层各神经元的阈值:b o 样本数据个数 :k1,2,L m 激活函数 : f 误差函数: e 1 q(d o (k )yo o (k )) 2 2 o1

算法步骤: Step1. 网络初始化 。给各连接权值分别赋一个区间( -1 , 1)内的随机数,设定 误差函数 e ,给定计算精度值 和最大学习次数 M 。 Step2. 随机选取第 k 个输入样本 x( k) x 1( k ), x 2 (k),L , x n (k ) 及对应期望输出 d o ( k) d 1 (k ), d 2 ( k),L , d q (k) Step3. 计算隐含层各神经元的输入 n hi h ( k) w ih x i (k ) b h h 1,2,L , p 和输出 i 1 ho h (k) f (hi h (k )) h 1,2, L , p 及 输 出 层 各 神 经 元 的 输 入 p yi o (k ) w ho ho h (k) b o o 1,2,L q 和输出 yo o ( k) f ( yi o (k )) o 1,2, L , p h 1 Step4. 利用网络期望输出和实际输出, 计算误差函数对输出层的各神经元的偏导 数 o (k ) 。 e e yi o w ho yi o w ho p yi o ( k) ( h w ho ho h (k ) b o ) ho h (k ) w ho w ho e ( 1 q (d o ( k) yo o (k))) 2 2 o 1 ( d o (k ) yi o yi o (d o (k) yo o (k ))f ( yi o (k )) @ o (k ) Step5. 利用隐含层到输出层的连接权值、输出层的 差函数对隐含层各神经元的偏导数 h (k ) 。 e e yi o o ( k) ho h (k ) w ho yi o w ho e e hi h (k) w ih hi h ( k) w ih n hi h (k ) ( w ih x i (k ) b h ) i 1 x i ( k) w ih w ih yo o (k )) yo o (k ) o ( k) 和隐含层的输出计算误

基于BP神经网络的预测模型

基于BP神经网络的国际黄金价格预测模型 公文易文秘资源网顾孟钧张志和陈友2009-1-2 13:35:26我要投稿添加到百度搜藏 [摘要] 为了寻找国际黄金价格与道琼斯工业指数、美国消费者指数,国际黄金储备等因素之间的内在关系,本文对1972年~2006年间的各项数据首先进行归一化处理,利用MATLAB神经网络工具箱进行模拟训练,建立了基于BP神经网络的国际黄金价格预测模型 [摘要] 为了寻找国际黄金价格与道琼斯工业指数、美国消费者指数,国际黄金储备等因素之间的内在关系,本文对1972年~2006年间的各项数据首先进行归一化处理,利用MATLAB神经网络工具箱进行模拟训练,建立了基于BP神经网络的国际黄金价格预测模型。 [关键词] MATLAB BP神经网络预测模型数据归一化 一、引言 自20世纪70年代初以来的30多年里,世界黄金价格出现了令人瞠目的剧烈变动。20 世纪70年代初,每盎司黄金价格仅为30多美元。80年代初,黄金暴涨到每盎司近700美元。本世纪初,黄金价格处于每盎司270美元左右,此后逐年攀升,到2006年5月12日达到了26年高点,每盎司730美元,此后又暴跌,仅一个月时间内就下跌了约160美元,跌幅高达21.9%。最近两年,黄金价格一度冲高到每盎司900多美元。黄金价格起伏如此之大,本文根据国际黄金价格的影响因素,通过BP神经网络预测模型来预测长期黄金价格。 二、影响因素 刘曙光和胡再勇证实将观察期延长为1972年~2006年时,则影响黄金价格的主要因素扩展至包含道琼斯指数、美国消费者价格指数、美元名义有效汇率、美国联邦基金利率和世界黄金储备5个因素。本文利用此观点,根据1972年~2006年各因素的值来建立神经网络预测模型。 三、模型构建

数学建模BP神经网络论文-参考模板

BP 神经网络 算法原理: 输入信号i x 通过中间节点(隐层点)作用于输出节点,经过非线形变换,产生输出信号k y ,网络训练的每个样本包括输入向量x 和期望输出量d ,网络输出值y 与期望输出值d 之间的偏差,通过调整输入节点与隐层节点的联接强度取值ij w 和隐层节点与输出节点之间的联接强度jk T 以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练即告停止。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。 变量定义: 设输入层有n 个神经元,隐含层有p 个神经元,输出层有q 个神经元 输入向量:()12,, ,n x x x x = 隐含层输入向量:()12,,,p hi hi hi hi = 隐含层输出向量:()12,,,p ho ho ho ho = 输出层输入向量:()12,,,q yi yi yi yi = 输出层输出向量:()12,,,q yo yo yo yo = 期望输出向量: ()12,, ,q do d d d = 输入层与中间层的连接权值: ih w 隐含层与输出层的连接权值: ho w 隐含层各神经元的阈值:h b 输出层各神经元的阈值: o b 样本数据个数: 1,2,k m = 激活函数: ()f ? 误差函数:2 1 1(()())2q o o o e d k yo k ==-∑

算法步骤: Step1.网络初始化 。给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e ,给定计算精度值ε和最大学习次数M 。 Step2.随机选取第k 个输入样本()12()(),(), ,()n x k x k x k x k =及对应期望输出 ()12()(),(),,()q d k d k d k d k =o Step3.计算隐含层各神经元的输入()1 ()()1,2, ,n h ih i h i hi k w x k b h p ==-=∑和输出 () ()(())1,2, ,h h ho k f hi k h p ==及 输出层各神经元的输入 ()1 ()()1,2, p o ho h o h yi k w ho k b o q ==-=∑和输出()()(())1,2, ,o o yo k f yi k o p == Step4.利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数()o k δ。 o ho o ho yi e e w yi w ???=??? (()) () ()p ho h o o h h ho ho w ho k b yi k ho k w w ?-?==??∑ 2 1 1((()()))2(()())()(()())f (()) () q o o o o o o o o o o o o d k yo k e d k yo k yo k yi yi d k yo k yi k k δ=?-?'==--??'=---∑ Step5.利用隐含层到输出层的连接权值、输出层的()o k δ和隐含层的输出计算误差函数对隐含层各神经元的偏导数()h k δ。 ()()o o h ho o ho yi e e k ho k w yi w δ???==-??? 1() ()(()) () () h ih h ih n ih i h h i i ih ih hi k e e w hi k w w x k b hi k x k w w =???= ????-?==??∑

神经网络在数学建模竞赛中的应用

第1章引言 1.1 人工神经网络的介绍 人工神经网络(Artificial Neural Networks, ANN),亦称为神经网络(Neural Networks,NN),是由大量的处理单元(神经元Neurons)广泛互联而成的网络,是对大脑的抽象、简化和模拟,反映人脑的基本特性.人工神经网络的研究是从人脑的生理结构出发来研究人的智能行为,模拟人脑信息处理的功能.它是根植于神经科学、数学、物理学、计算机科学及工程等科学的一种技术. 人工神经网络是由简单的处理单元所组成的大量并行分布的处理机,这种处理机具有储存和应用经念知识的自然特性,它与人脑的相似之处概括两个方面:一是通过学习过程利用神经网络从外部环境中获取知识;二是内部神经元(突触权值)用来存储获取的知识信息. 人工神经网络具有四个基本特征: (1)非线性非线性关系是自然界的普遍特性.大脑的智慧就是一种非线性现象.人工神经元处于激活或抑制二种不同的状态,这种行为在数学上表现为一种非线性关系.具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量. (2)非局限性一个神经网络通常由多个神经元广泛连接而成.一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定.通过单元之间的大量连接模拟大脑的非局限性.联想记忆是非局限性的典型例子. (3)非常定性人工神经网络具有自适应、自组织、自学习能力.神经网络不但处理的信息可以有各种变化,而且在处理信息的同时,非线性动力系统本身也在不断变化.经常采用迭代过程描写动力系统的演化过程. (4)非凸性一个系统的演化方向,在一定条件下将取决于某个特定的状态函数.例如能量函数,它的极值相应于系统比较稳定的状态.非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性. 人工神经网络是近年来的热点研究领域,涉及到电子科学技术、信息与通讯工程、计算机科学与技术、电器工程、控制科学与技术等诸多学科,其应用领域包括:建模、时间序列分析、模式识别和控制等,并在不断的拓展.本文正是居于数学建模的神经网路应用. 1.2人工神经网络发展历史 20世纪40年代中期期,在科学发展史上出现了模拟电子计算机和数字电子计算机两种新的计算工具和一种描述神经网络工作的数学模型.由于电子技术(特别是大规模、超大规模集成电路)的发展,使数字电子计算机作为高科技计算工具已发展到当今盛世地步,而人工神经网络模拟仿真生物神经网络的探索则经历了半个世纪的曲折发展道路.

数学建模bp神经网络讲解学习

数学建模B P神经网 络论文

BP 神经网络 算法原理: 输入信号i x 通过中间节点(隐层点)作用于输出节点,经过非线形变换,产生输出信号k y ,网络训练的每个样本包括输入向量x 和期望输出量d ,网络输出值y 与期望输出值d 之间的偏差,通过调整输入节点与隐层节点的联接强度取值ij w 和隐层节点与输出节点之间的联接强度jk T 以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练即告停止。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。 变量定义: 设输入层有n 个神经元,隐含层有p 个神经元,输出层有q 个神经元 输入向量:()12,, ,n x x x x = 隐含层输入向量:()12,,,p hi hi hi hi = 隐含层输出向量:()12,,,p ho ho ho ho = 输出层输入向量:()12,,,q yi yi yi yi = 输出层输出向量:()12,,,q yo yo yo yo = 期望输出向量: ()12,, ,q do d d d = 输入层与中间层的连接权值: ih w 隐含层与输出层的连接权值: ho w 隐含层各神经元的阈值:h b 输出层各神经元的阈值: o b 样本数据个数: 1,2, k m =

激活函数: ()f ? 误差函数:21 1(()())2q o o o e d k yo k ==-∑ 算法步骤: Step1.网络初始化 。给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e ,给定计算精度值ε和最大学习次数M 。 Step2.随机选取第k 个输入样本()12()(),(), ,()n x k x k x k x k =及对应期望输出 ()12()(),(),,()q d k d k d k d k =o Step3.计算隐含层各神经元的输入()1 ()()1,2, ,n h ih i h i hi k w x k b h p ==-=∑和输出 ()()(())1,2, ,h h ho k f hi k h p ==及输出层各神经元的输入 ()1 ()()1,2, p o ho h o h yi k w ho k b o q ==-=∑和输出()()(())1,2, ,o o yo k f yi k o p == Step4.利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数()o k δ。 o ho o ho yi e e w yi w ???=??? (()) () ()p ho h o o h h ho ho w ho k b yi k ho k w w ?-?==??∑ 2 1 1((()()))2(()())()(()())f (()) () q o o o o o o o o o o o o d k yo k e d k yo k yo k yi yi d k yo k yi k k δ=?-?'==--??'=---∑ Step5.利用隐含层到输出层的连接权值、输出层的()o k δ和隐含层的输出计算误差函数对隐含层各神经元的偏导数()h k δ。

数学建模参赛真实经验总结

数学建模参赛真实经验 一、如何准备数学建模竞赛 一般,可以把参加数学建模竞赛的过程分成三个阶段:第一阶段,是个人的入门和积累阶段,这个阶段关键看个人的主观能动性;第二阶段,就是通常各学校都进行的集训阶段,通过模拟实战来提高参赛队员的水平;第三阶段是实际比赛阶段。这里讲的如何准备数学建模竞赛是针对第一阶段来讲的。 回顾作者自己的参赛过程,认为这个阶段是真正的学习阶段,就像是修炼内功一样,如果在这个阶段打下深厚的基础,对后面的两个阶段非常有利,也是个人是否能在建模竞赛中占优势的关键阶段。下面就分几个方面谈一下如何准备数学建模竞赛。 首先是要有一定的数学基础,尤其是良好的数学思维能力。并不是数学分数高就说明有很高的数学思维能力,但扎实的数学知识是数学思维的根基。对大学生来说,有高等数学、概率和线性代数就够了,当然其它数学知识知道的越多越好了,如图论、排队论、泛函等。我大一下学期开始接触数学建模,大学的数学课程只学习过高等数学。说这一点,主要想说明只要数学基础还可以,平时的数学考试都能在80分以上就可以参加数学建模竞赛了,数学方面的知识可以在以后的学习中逐渐去提高,不必刻意去补充单纯的数学理论。 真正准备数学建模竞赛应该从看数学建模书籍开始,要知道什么是数学建模,有哪些常见的数学模型和建模方法,知道一些常见的数学建模案例,这些方面都要通过看建模方面的书籍而获得。现在数学建模的书籍也比较多,图书馆和互联网上都有丰富的数学建模资料。作者认为姜启源、谢金星、叶齐孝、朱道元等老师的建模书籍都非常的棒,可以先看二三本。刚开始看数学建模书籍时,一定会有很多地方看不懂,但要知道基本思路,时间长了就知道什么问题用什么建模方法求解了。这里面需要提的一点是,运筹学与数学建模息息相关,最好再看一二本运筹学著作,仍然可以采取诸葛亮的看书策略,只观其大略就可以了,等知道需要具体用哪块知识后,再集中精力将其消化,然后应用之。 大家都知道,参加数学建模竞赛一定要有些编程功底,当然现在有Matlab这种强大的工程软件,对编程的的要求就降低了,至少入门容易多了,因为很容易用1条Matlab命令

数学建模之神经网络

神经网络 神经网络不需要做许多假设和和复杂的数学表达式,只用通过学习样本进行训练。 一、BP 神经网络 1.1简介 BP 神经网络由输入层、隐层和输出层三层构成。对于BP 神经网络,网络的性能受局部不准确试验数据的影响很小。所以BP 神经网络有很强的容错性。 缺点:训练时间较长,求得的解可能是局部极小解。 若R 是输入量的个数,il W 是隐层第i 个神经元与输出层第K 个神经元的连接权值,i b 是阈值。则通用神经元模型如下: ... ∑f 将多个神经元模型串起来会得到n 个神经元输出,第i 个神经元输出为 1R i ik k i k n x b ω==+∑ 第i 个神经元经过任意传递函数后得到输出为 ()log ()|tan ()|()i i i i i y f n sig n sig n purelin n == BP 神经网络的应用 ①沼泽草炭土结构特性及模型研究(下载文档) 2.1步骤 ①构造建模方案 根据输入与输出关系写出表达式,如三输入,一输出的非线性函数表达式为 (,,)f d q σε= 相对应的BP 神经网络结构为

设j x ,i y ,l o 分别表示BP 网络三层节点的输入节点,隐节点,输出节点。ij ω表示输入节点和隐节点之间的网络权值,li T 表示隐节点和输出节点之间的网络权值,我们用梯度法对BP 网络的权值进行修正,采用sigmoid 函数。若输出节点期望输出l t ,则有 输入节点至隐节点的公式为: 阈值修正:(1)()i i i j k k θθηδγ''+=+ 误差:(1)i i i l li l y y T δδ'=-∑ 权值修正:(1)()ij ij i j k k ωωηδγ''+=+ 隐节点至输出节点的公式为: 若有p 个样本数,n 个输出节点数,则一个样本的误差为()(k)1||,n k k l l l e t o ==-∑控 制误差范围是1,p k k E e ζ==<∑ 阈值修正:(1)()l l l k k θθηδ''+=+ 权值修正:(1)(),(li li l i T k T k y k ηδ+=+为迭代次数) 误差:()(1)l l l l l t o o o δ=-??- 输出节点的计算公式为:

神经网络算法在数学建模中的应用(简介)

项目负责人:陈明锋(男、1986年6月生,2006级信息与计算科学本科专业)项目参与人:刘建军、黄发水、罗森平、温小锌 指导老师:邓志云副教授 研究时间:2008年11月~2010年3月 神经网络算法在数学建模中的应用 研究内容 针对近几年全国大学生数学建模竞赛中出现的数学模型越来越复杂、变量越来越多以及计算越来越困难的新特点,以我校每年参加全国大学生数学建模竞赛为契机,研究如何将神经网络算法应用到数学模型的求解中,其中主要开展了以下研究内容: 1.研究如何将神经网络算法应用到非线性函数逼近、模型预测、模式分类与模式识别、非线性优化及计算机仿真等数学模型的求解中,并给出它们的MATLAB 数学软件的计算机程序。 2.将研究成果应用到2009年的全国大学生数学建模竞赛中,以取得较好的成绩。 研究取得的成果 我们取得的成果主要有: 1.较好地得到了神经网络算法在非线性函数逼近、模型预测、模式分类与模式识别、非线性优化等数学模型中的应用,另外在计算机仿真模型和微分方程模型中的应用也展开了相应的研究,虽然有些问题还没有解决,但也取得了一定的成果。 2.利用MATLAB语言,给出了用神经网络算法求解以上数学模型的计算机程序,使这些成果更加容易推广。 3.将项目研究成果应用到2009年的全国大学生数学建模竞赛中,期望取得较好的成绩 特色与创新点 项目的主要特色有:(1)项目主要是针对于每年一次的全国大学生数学建模竞赛而开展的一项学生创新活动;(2)项目要求理论与实践相结合;(3)项目成果的应用范围非常广泛。 项目的创新点有:(1)如何将神经网络算法创造性地应用到数学模型的计算中并形成计算算法,是本项目的一个主要创新点。(2)项目得到的主要算法都进行了MATLAB语言的程序化,使得成果可以方便地学习、使用及推广。

数学建模论文——神经网络的应用

数学建模课程论文题目:胃癌的鉴别问题

胃癌的鉴别 摘要 本文研究的是一个判别问题,关键是给出判别胃癌、萎缩性胃炎和非胃病的标准。由于胃癌患者易误诊为萎缩性胃炎患者以及非胃病患者。进行胃癌的鉴别主要是通过化验4项生化指标:血清铜蓝蛋白(X1)、蓝色反应(X2)、尿吲哚乙酸(X3)、中性硫化物(X4)。本来从胃癌患者、萎缩性胃炎患者以及非胃病患者中一共抽取了12人进行指标化验,但是由于医护人员的疏忽,将化验结果搞混了。现有以前对胃癌患者、萎缩性胃炎患者以及非胃病患者化验的结果各一例,依次为(228,134,0.20,0.11)、(150,117,0.07,0.06)、(135,108,0.02,0.12),混淆的化验结果见附件 医学上一般根据临床的经验认为,患同一种病的人所表现出来的特征往往是相似的。 现在需要解决的问题如下: 问题一:建立一种判别准则,把12例被混淆的化验结果区分开来。 问题二:根据判别准则,对题目给出的三个病人的化验指标如下:(210,142,0.10,0.08)、(180,120,0.08,0.21)、(150,130,0.05,0.14),区分他们各属于哪一类人群。 问题三:为了尽量不想让胃癌诊断为萎缩性胃炎或无胃病,也不想让萎缩性胃炎诊断为无胃病,是否应对现有的判定准则作出调整?试给出调整方案。 针对问题一,应用MATLAB编程,建立并且训练了两个神经网络,成功地把12例被混淆的数据区分出来,画出了他们的散点图,并给出了判别准则。 针对问题二,根据给出的判别准则,容易判断出这3例数据分别显示这三个病人得了萎缩性胃炎、胃癌和非胃病。 针对问题三,利用求解超定方程组的最小二乘解,给出了两个判别函数,用于准确的区分三类人群。 关键字:神经网络区分鉴别判别准则

数学建模与数学实验常用工具

数学建模与数学实验常用工具 1、主要参考资料: 2、数学模型相关软件工具: matlab,lingo,lindo,mathmatic,maple,spss等 3、数学基础: 高等数学,概率统计,线性代数,离散数学,微分方程,运筹学,图论与网络流, 4、数学建模的十大算法 (1)、蒙特卡罗算法(该算法又称随机性模拟算法,是通过计

算机仿真来解决问题的算法,同时可以通过模拟可以来检验自己模型的正确性,是比赛时必用的方法) (2)、数据拟合、参数估计、插值等数据处理算法(比赛中通常会遇到大量的数据需要处理,而处理数据的关键就在于这些算法,通常使用Matlab作为工具) (3)、线性规划、整数规划、多元规划、二次规划等规划类问题(建模竞赛大多数问题属于最优化问题,很多时候这些问题可以用数学规划算法来描述,通常使用Lindo、Lingo软件实现)(4)、图论算法(这类算法可以分为很多种,包括最短路、网络流、二分图等算法,涉及到图论的问题可以用这些方法解决,需要认真准备) (5)、动态规划、回溯搜索、分治算法、分支定界等计算机算法(这些算法是算法设计中比较常用的方法,很多场合可以用到竞赛中) (6)、最优化理论的三大非经典算法:模拟退火法、神经网络、遗传算法(这些问题是用来解决一些较困难的最优化问题的算法,对于有些问题非常有帮助,但是算法的实现比较困难,需慎重使用)(7)、网格算法和穷举法(网格算法和穷举法都是暴力搜索最优点的算法,在很多竞赛题中有应用,当重点讨论模型本身而轻视算法的时候,可以使用这种暴力方案,最好使用一些高级语言作为编程工具) (8)、一些连续离散化方法(很多问题都是实际来的,数据可

神经网络数学建模实验报告

云南财经大学实验报告 系(院):统计与数学学院 专业:信息与计算科学 班级:信计09-1 学号: 200905001465 姓名: 课程名称:数学建模 实验时间: 2012年6月20日 指导教师: 云南财经大学教务处制

实验 名称 利用人工神经网络方法进行股票数据预测 实验目的1.学习运用matlab中的神经网络工具箱; 2.学习利用人工神经网络进行对股票的预测; 实验内容(算法、程序、步骤和方法)流程图股票数据预测 算法: 1.利用matlab中的函数premnmx,对输入数据进行归一化处理,归一化处理的目的是避 免BP神经网络无法收敛或者学习速度变慢甚至无效; 2.利用函数newff,对归一化后的数据进行训练; 3.利用函数sim,对训练好的网络对原始数据进行仿真; 4.用仿真结果与已知数据进行对比测试,并继续对新数据进行仿真; 5.将预测结果与已知结果绘图并进行比较; 步骤: 1.利用函数premnmx,输入已知输入数据矩阵以及目标输出数据矩阵; 2.对输入矩阵及目标输出矩阵进行归一化处理; 3.利用函数newff,对归一化后的数据进行训练; 4.利用函数sim,利用训练好的网络对原始数据进行仿真; 5.用原始数据预测结果与已知数据进行对比测试; 6.观察预测数据和原始数据的差异大小及吻合程度; 程序: clc % 时间序列作为输入数据 time=1:48; % 开盘价、最低价、最高价、收盘价作为输出数据 kpj1=[9.98 10.00 9.91 9.88 9.85 9.74 9.61 9.74 9.84 9.83 9.76... 9.78 9.70 9.75 9.68 9.58 9.65 9.71 9.53 9.50 9.66 9.71 9.70 9.78 ... 9.86 9.85 9.70 9.91 9.94 9.88 9.86 9.76 9.68 9.65 9.8 9.83 9.88 9.96... 9.98 9.85 9.81 9.96 10.02 10.08 10.06 10.19 10.11 10.10]; %开盘价 zgj1=[9.99 10.05 9.95 9.93 9.88 9.76 9.84 9.80 9.86 9.87... 9.77 9.85 9.75 9.78 9.68 9.77 9.80 9.76 9.65 9.68 9.74 9.79 9.85... 9.90 9.86 9.90 9.99 10.0 9.95 9.93 9.86 9.78 9.72 9.86 9.89 9.92... 9.98 10.03 9.98 10.02 9.98 10.03 10.13 10.15 10.28 10.28 10.23 10.16]; %最高价 zdj1=[9.91 9.91 9.85 9.83 9.72 9.58 9.55 9.66 9.75 9.78 9.70...

相关文档
相关文档 最新文档