文档库 最新最全的文档下载
当前位置:文档库 › 复杂网络及其matlab模拟

复杂网络及其matlab模拟

复杂网络及其matlab模拟
复杂网络及其matlab模拟

毕业论文

题目:复杂网络及其matlab模拟学院:物理与电子工程学院

专业:物理学

毕业年限:2015

学生姓名:

学号:

指导教师:

复杂网络及其matlab模拟

班级:物理学2班姓名:指导教师:

摘要近年来,关于复杂网络的研究正方兴未艾,1998年Watts和Strogatz 在Nature杂志上发表文章,引入了小世界(Small一World)网络模型。本文对复杂网络的特性还有无标度与小世界网络进行简单介绍,详细介绍各个模型的生成与算法,并用matlab软件进行了模拟。

关键词复杂网络无标度小世界模拟

Abstract In recent years, the research on complex networks of academia is be just unfolding, in particular, the two pioneering work set off an upsurge in the study of complex networks.In 1998 Watts and Strogatz published an article In this paper, the properties of complex networks are scale-free and small world networks are briefly introduced,Generation and algorithm details of each model, and use MATLAB software to simulate.

Key word Complex network;Scale free;Small World;Simulation

引言

在人类生存的整个空间甚至宇宙中都存在着大量复杂系统,这些系统可以通过形形色色的网络加以描述。一个典型的网络是由许多节点与连接两个节点之间的一些边组成的,其中节点用来代表真实系统中不同的个体,而边则用来表示个体间的关系,往往是两个节点之间具有某种特定的关系则连一条边,反之则不连边,有边相连的两个节点在网络中被看作是相邻的。例如,神经系统可以看作大量神经细胞通过神经纤维相互连接形成的网络[1];计算机网络可以看作是自主工作的计算机通过通信介质如光缆、双绞线、同轴电缆等相互连接形成的网络[2],类似的还有电力网络[1]、社会关系网络[1,4]、交通网络等等。数学家和物理学家在研究网络的时候,往往只关心节点之间有没有边相连,至于节点到底在什么位置,边是长还是短,是弯曲还是平直,有没有相交等等都是他们不在意的。在这里,

我们把网络不依赖于节点的具体位置和边的具体形态就能表现出来的性质叫做网络的拓扑性质,相应的结构叫做网络的拓扑结构。那么,什么样的拓扑结构比较适合用来描述真实的系统呢?

本文首先介绍了复杂网络的研究进展及其统计特征,然后对小世界网络和无标度网络模型及各模型的matlab模拟作了详细介绍。

1 复杂网络的发展及统计特征

1.1.复杂网络的发展

由于现实世界网络的规模大,节点间相互作用复杂,其拓扑结构基本上未知或未曾探索。两百多年来,人们对描述真实系统拓扑结构的研究经历了三个阶段。在最初的一百多年里,科学家们认为真实系统要素之间的关系可以用一些规则的结构表示,例如大数学家欧拉的哥尼斯堡七桥问题[8],哥尼斯堡是当时东普鲁士的首都,今俄罗斯加里宁格勒市,普莱格尔河横贯其中,这条河上建有七座桥,将河中间的两个岛和河岸联结起来,。有人在闲暇散步时提出:能不能每座桥都只走一遍,最后又回到原来的位置。大数学家欧拉用一种独特的方法给出了解答。他把两座小岛和河的两岸分别看作四个点,分别用A、B、C和D表示,而把七座桥看作这四个点之间的连线,分别用a、b、c、d、e、f和g表示(如图1)。于是这个问题就简化成:能不能用一笔就把这个图形画出来?经过进一步的分析,欧拉得出结论:不可能每座桥都走一遍,最后回到原来的位置,并且给出了所有能够一笔画出来的图形所应具有的条件。

图1 欧拉哥尼斯堡七桥问题

英国数学家哈密顿于1859年以游戏的形式提出:把一个正十二面体的二十个节点看成二十个城市,要求找出一条经过每个城市恰好一次而回到出发点的路线,这条路线就称“哈密顿圈”[9]。

1852年,毕业于伦敦大学的格思里来到一家科研单位做地图着色工作时,

发现了一个有趣的现象:每幅地图都可以用四种颜色着色,使得有共同边界的国家着上不同的颜色[9]。

1959年,两个匈牙利著名的数学家Erd?s 和R ényi 建立了著名的随机图理论,用相对简单的随机图来描述网络,简称ER 随机图理论[5]。ER 随机图理论对图论理论研究的影响长达近40年,以至于在随后的近半个世纪,随机图一直是科学家研究真实网络最有力的武器。

直到最近几年,科学家们发现大量的真实网络既不是规则网络,也不是随机网络,而是具有与前两者皆不同的统计特性的网络,其中最有影响的是美国的 Watts 和Strogatz 于1998年发表了题为《“小世界”网络的群体动力行为》的论文[1],推广了“六度分离”的科学假设[8],提出了小世界网络模型。“六度分离”最早来自于20世纪60年代美国哈佛大学心理学家Milgram 对社会调查的推断,是指在大多数人中,任意两个素不相识的人通过朋友的朋友,平均最多通过6个人就能够彼此认识。随后Barabasi 等人于1999年发表了题为《随机网络中标度的涌现》的论文[6],提出了一个无标度网络模型,指出在复杂网络中节点的度分布具有幂指数函数的规(节点的度是指与该节点连接的边数,而度分布是指网络中所有节点的度的分布情况),其度分布可以用幂律形式进行描述。 近10年来,复杂网络的研究正渗透到众多不同的学科。推进复杂性科学的交叉研究,深入探索和科学理解复杂网络的定性特征与定量规律,使它获得广泛的应用,对全球科学和社会的发展具有十分重大的长远意义。

1.2.复杂网络的统计特征

平均路径长度:网络中两个节点i 到j 之间的距离定义为连接这两个节点的最短路径上的边数。网络中任意两个节点之间的距离的最大值称为网络的直径,记为D 。即:D=max(d ij )。网络的平均路径长度L 定义为任意两节点之间距离的平均值,即: ∑≥+=j

i ij d )1(211N N L (1)

其中,N 为网络的总节点数,网络的平均路径长度也称为网络的特征路径长度。

集聚系数:集聚系数又称作簇系数,它衡量的是网络的集团化程度,是网络的另一个重要参数。簇系数的概念有其深刻的社会根源。对社会网络而言,集团

化形态是其一个重要特征,集团表示网络中的朋友圈或熟人圈,集团中的成员往往相互熟悉,为衡量这种群集现象,科学家们提出了簇系数的概念。节点i 的簇系数i C 描述的是网络中与该节点直接相连的节点之间的连接关系,即与该节点直接相邻的节点间实际存在的边数目占最大可能存在的边数的比例,i C 的表达式为:

)(1

k k /e 2i i i i -=C (2) 式中i k 表示节点i 的度,i e 表示节点i 的邻接点之间实际存在的边数。网络的簇系数C 为所有节点簇系数的算术平均值,即:

∑=N C N C 1-i i

1 (3)

其中N 为网络的阶。不尽尽是社会网络,在其它类型的网络中,也普遍存在集聚现象。

计算下面简单网络的直径、平均距离和各节点的集聚系数。

图2网络统计特征计算示意图

解:首先计算出所有节点对的距离:d12=1;d13=1;d14=2;d15=1;d16=2;d23=1;d24=1;d25=2;d26=2;d34=2;d35=2;d36=1;d45=3;d46=1;d56=3。由此可得直径和平均距离和集聚系数分别为:直径3d d d m a x 5645ij j

1i 1====≤≤,D ,平均距离67.1)56/()252(16621=??=-=∑>j ij d L )(, 集聚系数6

16/c 1i i =

=∑=N C 。

度分布:度分布是网络的一个重要统计特征。这里的度(Degree)也称为连通度(Connectivity),节点的度指的是与该节点连接的边数。对网络中所有节点的度求平均,可得到网络的平均度<k>。度分布则表示节点度的概率分布函数()

P k,它指的是节点有k条边连接的概率。

2.小世界网络模型及其模拟

1929 年,匈牙利作家 F.Karinthy 最早提出了“小世界现象”的论断。他认为,在地球上的任何两个人都可以平均通过一条由六位联系人组成的链条而联系起来。而后,在1967 年,美国哈佛大学社会心理学教授Milgram 通过设计一个连锁信件实验,提出了著名的“六度分离”假说,即“小世界现象”[1]。这体现了一个似乎很普遍的规律:在如今的信息化时代,人们之间的关系已经完全社会化,任何两位素不相识的人都可能通过“六度空间”产生必然联系或关联。这一现象表明,在看似庞大的网络中各要素之间的间隔实际上是非常“近”的,大家在世界上通过一步一步的社会相识寻找到目标的这个短链子理论普遍存在于各种社会、经济网络中,科学家们把这种现象称为小世界效应[1](Small-world effect)。为了用网络图来解释“六度分离”的小世界效应,,Watts 和 Strogatz 在对规则网络和随机网络理论研究的基础上,于 1998 年提出了著名的 WS 小世界网络[1]。WS模型提出后,很多学者在此基础作了近一步改进,其中应用最多的是Newman和Watts提出的所谓NW小世界模型。事实上,当p很小N很大的时候,这两个模型理论分析的结果是相同的,现在我们统称它们为小世界模型。

前面我们已经简单的介绍了一下小世界网络的WS和NW模型,下面将着重介绍小世界网络的ws模型的特点。

2.1.WS 模型构造算法

1998年, Watts和Strogatz 提出了小世界网络这一概念,并建立了WS模型[1]。实证结果表明,大多数的真实网络都具有小世界特性(较小的最短路径) 和聚类特性(较大的聚类系数) 。传统的规则最近邻耦合网络具有高聚类的特性,但并不具有小世界特性;而ER 随机网络具有小世界特性但却没有高聚类特性。因此这两种传统的网络模型都不能很好的来表示实际的真实网络。 Watts和Strogatz建立的WS小世界网络模型就介于这两种网络之间,同时具有小世界特

性和聚类特性,可以很好的来表示真实网络[1]。

WS 网络模型同时具有平均路径长度短集群系数高的特点,但是,它的度分布仍是一个轻尾的Poisson 分布,而且WS 网络中不存在具有大量连接边的中枢点,因此,它仍然是一个平衡网络。近年来,研究人员对小世界网络得结构性质和动力学行为进行了深入的探索,取得了丰富成果。研究表明小世界网络能够增强信号的传播速度、提高计、提高计算能力和网络同步能力[8]。特别地,传染性疾病在小世界网络中传播要比在规则网络中容易得多。

WS 模型的生成算法为:给定一个具有N 个结点的环形网络规则,每一个结点对称地与它最近的m(m<

2.2.小世界网络模型设计及实现

1、从规则图开始:考虑一个含有N个点的最近邻耦合网络,它们围成一个环,其中每个节点都与它左右相邻的各K/2节点相连,K是偶数。

2、随机化重连:以概率p随机地重新连接网络中的每个边,即将边的一个端点保持不变,而另一个端点取为网络中随机选择的一个节点。其中规定,任意两个不同的节点之间至多只能有一条边,并且每一个节点都不能有边与自身相连。在上述模型中,p=0对应于完全规则网络,p=1则对应于完全随机网络,通过调节p的值就可以控制从完全规则网络到完全随机网络的过渡。网络图像如下:

图3不同概率下网络示意图

网络图中各节点度的概率分布如下:

图4不同概率下各节点度的概率分布图

上面P=0.2时网络图显示,大部分连边保持不变,出现了少量捷径,正是由于这少量捷径造成了网络的小世界效应。

3.无标度网络模型及其模拟

1999年,Alber 和Barabds 发现WWW 网页的度分布不是通常认为的Poisson 分布,而是重尾特征的幂律分布,而且WWW 基本上是由少数具有大量超链接的网页串连起来的,绝大部分网页的链接很少,他们把网络的这个特性称为无标度性[3](Scale-free nature ,SF)。研究人员对大量的实际网络进行了实证分析,发现许多网络的度分布都是幂律的,要描述这些网络的结构和演化过程,随机图模型和小世界网络模型显然无能为力。

1999年Barabdsi 和Albert 考察了实际网络的生成机制,发现增长和择优连接是实际网络演化过程的两个基本要素,他们创造性地构建了能够产生无标度特性的第一个网络模型——BA 模型[6]。BA 模型的生成算法如下:

(1)增长:网络开始于少数几个结点(0m 个),每个相等时问间隔增加一个新点,新点与m(≤0m )个不同的已经存在于网络中的旧点相连产生m 条新边。

(2)择优连接:假设新点与旧点i 相连的概率p 取决于结点i 的度数i k ,即

∑=i j

i i k k k p )( (4) 经过t 步时间步后,BA 模型演化成一个具有N=t+0m 个结点mt 条边的网络。

BA 网络主要具有以下特性:具有幂律度分布,是一个无标度网络;具有小

世界特征。幂律度分布的重尾特征导致无标度网络中有少数具有大量连接边的中枢点,择优连接必然产生“富者愈富”现象。BA 网络同时具有鲁棒性和脆弱性,面对结点的随机失效,网络具有鲁棒性;但面对蓄意攻击时,由于中枢点的存在,网络变得十分脆弱,很容易陷于瘫痪[9]。

3.1. 无标度网络模型构造算法

按照BA 模型的定义,针对Matlab 语言的特点,以初始节点等于3为例,设计如下算法[11]:

第1:生成0m =3个结点的初始完全网络,设置网络规模为N(0m ),并用

Matlab 特有的稀疏矩阵处理函数。

第2:每隔一个固定时段加入一个新的结点,按照概率p(i k )与原有网络结点产生m 条无重复连边,重复上述过程N-0m 次;

第3:存储N=100个结点的网络邻接矩阵。下面分别就N=10、N=60、N=100、 做图:

图5无标度网络生成的演化图 上面三幅图对应的网络图中各节点度的概率分布如下:

图6节点数不同时各节点度的概率分布图

上面组图显示,大部分结点的连边较少,少数结点具有大量的连边,这些具有大量连边的结点构成了网络的中枢点。当结点个数无限增加时,网络结点的度分布为幂律分布,可以用幂律形式P(k)∝k?γ即P(k)=ak?γ网络即为无标度网络。转换为对数函数:lnP(k)=lna-γlnk令lnP为y,k为x则y=lna-γx,当γ=2,a=1时函数图如下:

图7各节点度的概率分布双对数曲线

许多实际大规模无标度网络,其幂指数通常为2≤γ≤3,绝大多数节点的度相对很低,也存在少量度值相对很高的节点,把这类网络称为无标度网络。

4. 结语

现实世界中许许多多的复杂网络都是具有小世界或无尺度特征的复杂网络,从生物体中的大脑结构到各种新陈代谢网络,从Internet到WWW,从大型电力网络到全球交通网络,从科研合作网络到各种政治、经济、社会关系网络等等,数不胜数。因此,对小世界网络和无标度网络及其模型进行更深入的研究是非常必要的。

参考文献

[1] Watts, D.J. and Strogatz, S.H. Collective dynamics of “small world”networks. Nature,393, 440-442,(1998)

[2] Faloutsos M, Faloutsos P, Faloutsos C. On power-law relationships of the internet topology[C]//ACM SIGCOMM Computer Communication Review. ACM, 1999, 29(4): 251-262.

[3] Albert R, Barabasi A.L.,Statistical mechanics of complex networks[J]. Reviews of Modern Physics 74, 47-97 (2002)

[4] Newman M.E, Watts D.J. Renormalization group analysis of the

small-world networkmodel[J]. Physics Letters A263,341–346(1999)

[5] Erdos P, Ryenyi A. ActaMathematica Scientia Hungary[J],1961

[6] Barabsi, A.L. and Albert, R. Emergence of scaling in random networks[J]. Science, 286, 509-512,1999

[7] 吴金闪,狄增如从统计物理学看复杂网络研究[J],物理学进展,2004

[8]汪小凡,李翔,陈关荣复杂网络理论及其应用[M],北京:清华大学出版社,2005

[9]周涛,柏文洁,汪秉宏,刘之景,严钢复杂网络研究概述[J],中国科学技术大学,2005

[10]李光正,翟龙余,左传桂基于matlab的小世界网络仿真[J],百色学院学报,21-17,2008

[11]李光正,翟龙余,左传桂基于matlab的无标度网络仿真[J],百色学院学报,21-3,2008

致谢

本论文是在导师的悉心指导下完成的。谨在此论文完成之际,首先向我的导师表示忠心地感谢,感谢导师在写论文时对我的指导,在生活上对我的关怀和照顾。衷心感谢物理系的领导和老师,给我提供了良好的学习环境。

最后深深感谢我的父母和家人,感谢你们四年来对我的无微不至的关怀与鼓励,让我在学习和人生的道路上能勇往直前、不怕艰难,有勇气面对学习和生活中的各种困难和挫折。

神经网络学习算法matlab仿真(借鉴参照)

东南大学自动化学院 智能控制概论 神经网络学习算法研究 学院: 姓名: 学号: 日期:

目录 1 任务要求叙述 ..................................................... 错误!未定义书签。 2 系统分析及设计原理 ......................................... 错误!未定义书签。 3 设计实现.............................................................. 错误!未定义书签。4仿真验证.. (6) 5 讨论与分析.......................................................... 错误!未定义书签。

一.任务要求叙述 (1)任务 (a) 运行算法,观察和分析现有学习算法的性能; clear all;close all; nu=20;pi=3.1415926; for i=1:nu p(i)=2*pi*i/nu; t(i)=0.5*(1+cos(p(i))); end minmax=[min(p(:)) max(p(:))] net = newff([ 0 7],[6 1],{'logsig' 'purelin'},'traingd');% traingd traingdm trainlm net.trainParam.epochs = 10000; net.trainParam.goal = 0.0001; net.trainParam.show=200; net.trainParam.lr=0.1; net.trainParam.mc=0.6; %0.9 default value; available for momentum net = train(net,p,t); y1 = sim(net,p); figure(2); plot(p,t,'*-',p,y1,'r--') %************** test data ****************** nu2=nu*3/2; for i=1:(nu2) p2(i)=2*pi*i/(nu2); t2(i)=0.5*(1+cos(p2(i))); end y2 = sim(net,p2); figure(3); plot(t2,'*-');hold on; plot(y2,'r'); xlabel('times');ylabel('outputs'); figure(4); plot(t2-y2); xlabel('times');ylabel('error'); (b) 为了进一步提高学习逼近效果,可以采取那些措施,调节规律如何?根据所提的每种措施,修改算法程序,给出仿真效果验证、过程以及相应的曲线图,给出适当的评述;(c) 联系、结合前向神经网络的算法样本学习、测试等过程,谈谈本人对神经网络系统的一些认识和看法。

(完整版)BP神经网络matlab实例(简单而经典).doc

p=p1';t=t1'; [pn,minp,maxp,tn,mint,maxt]=premnmx(p,t); % 原始数据归一化 net=newff(minmax(pn),[5,1],{'tansig','purelin'},'traingdx'); %设置网络,建立相应的BP 网络net.trainParam.show=2000; % 训练网络 net.trainParam.lr=0.01; net.trainParam.epochs=100000; net.trainParam.goal=1e-5; [net,tr]=train(net ,pn,tn); %调用TRAINGDM 算法训练BP 网络 pnew=pnew1'; pnewn=tramnmx(pnew,minp,maxp); anewn=sim(net,pnewn); anew=postmnmx(anewn,mint,maxt); %对 BP 网络进行仿真%还原数据 y=anew'; 1、 BP 网络构建 (1)生成 BP 网络 net newff ( PR,[ S1 S2...SNl],{ TF1 TF 2...TFNl }, BTF , BLF , PF ) PR :由R 维的输入样本最小最大值构成的R 2 维矩阵。 [ S1 S2...SNl] :各层的神经元个数。 {TF 1 TF 2...TFNl } :各层的神经元传递函数。 BTF :训练用函数的名称。 (2)网络训练 [ net,tr ,Y, E, Pf , Af ] train (net, P, T , Pi , Ai ,VV , TV ) (3)网络仿真 [Y, Pf , Af , E, perf ] sim(net, P, Pi , Ai ,T ) {'tansig','purelin'},'trainrp' BP 网络的训练函数 训练方法 梯度下降法 有动量的梯度下降法 自适应 lr 梯度下降法 自适应 lr 动量梯度下降法弹性梯度下降法训练函数traingd traingdm traingda traingdx trainrp Fletcher-Reeves 共轭梯度法traincgf Ploak-Ribiere 共轭梯度法traincgp

基于matlab实现BP神经网络模型仿真

基于BP神经网络模型及改进模型对全国历年车祸次数预测 一、背景 我国今年来随着经济的发展,汽车需求量不断地增加,所以全国每年的车祸次数也被越来越被关注,本文首先搜集全国历年车祸次数,接着通过这些数据利用BP神经网络模型和改进的径向基函数网络进行预测,最后根据预测结果,分析模型的优劣,从而达到深刻理解BP神经网络和径向基函数网络的原理及应用。所用到的数据即全国历年车祸次数来自中国汽车工业信息网,网址如下: https://www.wendangku.net/doc/4a12578953.html,/autoinfo_cn/cszh/gljt/qt/webinfo/2006/05/124650 1820021204.htm 制作历年全国道路交通事故统计表如下所示: 二、问题研究 (一)研究方向 (1)通过数据利用BP神经网络模型预测历年全国交通事故次数并与实际值进行比较。(2)分析BP神经网络模型改变训练函数再进行仿真与之前结果进行对比。 (3)从泛化能力和稳定性等方面分析BP神经网络模型的优劣。 (4)利用径向基函数网络模型进行仿真,得到结果与采用BP神经网络模型得到的结果进行比较。

(二)相关知识 (1)人工神经网络 人工神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)和之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 人工神经网络有以下几个特征: (1)非线性非线性关系是自然界的普遍特性。大脑的智慧就是一种非线性现象。人工神经元处于激活或抑制二种不同的状态,这种行为在数学上表现为一种非线性网络关系。具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量。 (2)非局限性一个神经网络通常由多个神经元广泛连接而成。一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定。通过单元之间的大量连接模拟大脑的非局限性。联想记忆是非局限性的典型例子。 (3)非常定性人工神经网络具有自适应、自组织、自学习能力。神经网络不但处理的信息可以有各种变化,而且在处理信息的同时,非线性动力系统本身也在不断变化。经常采用迭代过程描写动力系统的演化过程。 (4)非凸性一个系统的演化方向,在一定条件下将取决于某个特定的状态函数。例如能量函数,它的极值相应于系统比较稳定的状态。非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。 (2)BP神经网络模型 BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hide layer)和输出层(output layer)。 (3)径向基函数网络模型 径向基函数(Radial Basis Function,RBF)神经网络由三层组成,输入层节点只传递输入信号到隐层,隐层节点由像高斯函数那样的辐射状作用函数构成,而输出层节点通常是简单的线性函数。 隐层节点中的作用函数(基函数)对输入信号将在局部产生响应,也就是说,当输入信号靠近基函数的中央范围时,隐层节点将产生较大的输出,由此看出这种网络具有局部逼近能力,所以径向基函数网络也称为局部感知场网络。

神经网络PID控制及Matlab仿真

神经网络PID控制及Matlab仿真 摘要 PID控制技术是一种应用很普遍的控制技术,目前在很多方面都有广泛的应用。论文首先简要介绍了神经网络的理论基础和神经网络的学习算法,传统的常规PID控制器。为了达到改善常规PID控制器在复杂的、动态的和不确定的系统控制还存在着许多不足之处的目的,文中系统的分析了神经网络PID控制器。 本文主要研究了神经网络PID控制。利用神经网络具有强的非线性映射能力、自学习能力、联想记忆能力、并行信息处理方式及优良的容错性能,应用神经网络对PID控制器进行改进后,对于工业控制中的复杂系统控制有着更好的控制效果,有效的改善了由于系统结构和参数变化导致的控制效果不稳定。文中深入研究了基于神经网络的BP神经网络PID控制器及其仿真等。 最后,对常规PID控制器和神经网络PID控制器进行了仿真比较,仿真结果表明,应用神经网络对常规PID控制器进行改进后提高了系统的鲁棒性和动态特性,有 效的改善了系统控制结果,达到了预期的目的前言 在工业控制过程中,PID控制是一种最基本的控制方式,其鲁棒性好、结构简单、易于实现,但常规的PID控制也有其自身的缺点,因为常规PID控制器的参数是根据被控对象数学模型确定的,当被控对象的数学模型是变化的、非线性的时候,PID参数不易根据其实际的情况做出调整,影响了控制质量,使控制系统的控制品质下降。特别是在具有纯滞后特性的工业过程中,常规的PID控制更难满足控制精度的要求。 PID控制是最早发展起来的控制策略之一,按偏差的比例、积分和微分进行控制的调节器称为 PID控制器,它是连续系统中技术成熟,应用最广泛的一种调节器。由于其算法简单,实现简易、鲁棒性能良好和可靠性高,能够对很大一类工业对象进行有效控制等一系列优点,被广泛应用于工业过程控制,尤其适用于可建立精确数学模型的确定性控制系统。但是在实际的工业生产过程中,往往具有非线性,时变不确定性,因而难以建立精确的数学模型,应用常规 PID控制器不能达到理想的控制效果:在实际生产过程中,由于受到参数整定方法繁杂的困扰,常规PID控制器参数往往整定不良,性能欠佳,对运行工况的适应性很差。

BP神经网络地设计实例(MATLAB编程)

神经网络的设计实例(MATLAB编程) 例1 采用动量梯度下降算法训练BP 网络。训练样本定义如下: 输入矢量为 p =[-1 -2 3 1 -1 1 5 -3] 目标矢量为t = [-1 -1 1 1] 解:本例的MATLAB 程序如下: close all clear echo on clc % NEWFF——生成一个新的前向神经网络% TRAIN——对BP 神经网络进行训练 % SIM——对BP 神经网络进行仿真pause % 敲任意键开始 clc % 定义训练样本 P=[-1, -2, 3, 1; -1, 1, 5, -3]; % P 为输入矢量T=[-1, -1, 1, 1]; % T 为目标矢量

clc % 创建一个新的前向神经网络 net=newff(minmax(P),[3,1],{'tansig','purelin'},'traingdm') % 当前输入层权值和阈值 inputWeights=net.IW{1,1} inputbias=net.b{1} % 当前网络层权值和阈值 layerWeights=net.LW{2,1} layerbias=net.b{2} pause clc % 设置训练参数 net.trainParam.show = 50; net.trainParam.lr = 0.05; net.trainParam.mc = 0.9; net.trainParam.epochs = 1000; net.trainParam.goal = 1e-3; pause clc % 调用TRAINGDM 算法训练BP 网络 [net,tr]=train(net,P,T);

Matlab训练好的BP神经网络如何保存和读取方法(附实例说明)

Matlab训练好的BP神经网络如何保存和读取方法(附实例说明) 看到论坛里很多朋友都在提问如何存储和调用已经训练好的神经网络。 本人前几天也遇到了这样的问题,在论坛中看了大家的回复,虽然都提到了关键的两个函数“save”和“load”,但或多或少都简洁了些,让人摸不着头脑(呵呵,当然也可能是本人太菜)。通过不断调试,大致弄明白这两个函数对神经网络的存储。下面附上实例给大家做个说明,希望对跟我有一样问题的朋友有所帮助。 如果只是需要在工作目录下保到当前训练好的网络,可以在命令窗口 输入:save net %net为已训练好的网络 然后在命令窗口 输入:load net %net为已保存的网络 加载net。 但一般我们都会在加载完后对网络进行进一步的操作,建议都放在M文件中进行保存网络和调用网络的操作 如下所示: %% 以函数的形式训练神经网络 functionshenjingwangluo() P=[-1,-2,3,1; -1,1,5,-3]; %P为输入矢量 T=[-1,-1,1,1,]; %T为目标矢量 net=newff(minmax(P),[3,1],{'tansig','purelin'},'traingdm') %创建一个新的前向神经网络 inputWeights=net.IW{1,1} inputbias=net.b{1} %当前输入层权值和阀值 layerWeights=net.LW{2,1} layerbias=net.b{2} net.trainParam.show=50; net.trainParam.lr=0.05; net.trainParam.mc=0.9;

人工神经网络作业MATLAB仿真(共3篇)

人工神经网络作业M A T L A B 仿真(共3篇) -标准化文件发布号:(9456-EUATWK-MWUB-WUNN-INNUL-DDQTY-KII

人工神经网络仿真作业(3篇) 人工神经网络仿真作业1: 三级倒立摆的神经网络控制 人工神经网络仿真作业2: 基于模型整体逼近的机器人RBF网络自适应控制 人工神经网络仿真作业3: 基于RBF的机械手无需模型自适应控制研究

神经网络仿真作业1:三级倒立摆的神经网络控制 摘要:建立了基于人工神经网络改进BP 算法的三级倒立摆的数学模型,并给 出了BP 网络结构,利用Matlab 软件进行训练仿真,结果表明,改进的BP 算法控制倒立摆精度高、收敛快,在非线性控制、鲁棒控制等领域具有良好的应用前景。 1.引言 倒立摆系统的研究开始于19世纪50年代,它是一个典型的非线性、高阶次、多变量、强耦合和绝对不稳定系统.许多抽象的控制概念,如系统的稳定性、可控性、系统的收敛速度和抗干扰能力都可以通过倒立摆直观地表现出来。随着现代控制理论的发展,倒立摆的研究对于火箭飞行控制和机器人控制等现代高科技的研究具有重要的实践意义。目前比较常见的倒立摆稳定控制方法有线性控制,如LQR,LQY 等;智能控制,如变论域自适应模糊控制,遗传算法,预测控制等。 2.系统的数学模型 2.1三级倒立摆的模型及参数 三级倒立摆主要由小车,摆1、摆2、摆3组成,它们之间自由链接。小车可以在水平导轨上左右平移,摆杆可以在铅垂平面内运动,将其置于坐标系后如图1 所示: 规定顺时针方向的转角和力矩均为正。此外,约定以下记号:u 为外界作用力,x 为小车位移,i (i =1,2,3)为摆i 与铅垂线方向的夹角, i O 分别为摆i 的链接点位置。其它的系统参数说明如下:

BP神经网络matlab实例

神经网络Matlab p=p1';t=t1'; [pn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始数据归一化net=newff(minmax(pn),[5,1],{'tansig','purelin'},'traingdx');%设置网络,建立相应的BP网络 net.trainParam.show=2000; % 训练网络 net.trainParam.lr=0.01; net.trainParam.epochs=100000; net.trainParam.goal=1e-5; [net,tr]=train(net ,pn,tn); %调用TRAINGDM算法训练BP网络 pnew=pnew1'; pnewn=tramnmx(pnew,minp,maxp); anewn=sim(net,pnewn); %对BP网络进行仿真 anew=postmnmx(anewn,mint,maxt); %还原数据 y=anew'; 1、BP网络构建 (1)生成BP网络 = net newff PR S S SNl TF TF TFNl BTF BLF PF (,[1 2...],{ 1 2...},,,) R?维矩阵。 PR:由R维的输入样本最小最大值构成的2

S S SNl:各层的神经元个数。 [1 2...] TF TF TFNl:各层的神经元传递函数。 { 1 2...} BTF:训练用函数的名称。 (2)网络训练 = [,,,,,] (,,,,,,) net tr Y E Pf Af train net P T Pi Ai VV TV (3)网络仿真 = [,,,,] (,,,,) Y Pf Af E perf sim net P Pi Ai T {'tansig','purelin'},'trainrp' BP网络的训练函数 训练方法训练函数 梯度下降法traingd 有动量的梯度下降法traingdm 自适应lr梯度下降法traingda 自适应lr动量梯度下降法traingdx 弹性梯度下降法trainrp Fletcher-Reeves共轭梯度法traincgf Ploak-Ribiere共轭梯度法traincgp Powell-Beale共轭梯度法traincgb 量化共轭梯度法trainscg 拟牛顿算法trainbfg 一步正割算法trainoss Levenberg-Marquardt trainlm

神经网络与matlab仿真

神经网络与matlab仿真 摘要 随着技术的发展,人工神经网络在各个方面应用越来越广泛,由于matlab仿真技术对神经网络的建模起着十分重要的作用,因此,本文通过讨论神经网络中基础的一类——线性神经网络的matlab仿真,对神经网络的matlab仿真做一个基本的了解和学习。 关键词:人工神经网路matlab仿真线性神经网络 1 神经网络的发展及应用 人工神经网络(Artificial Neural Network,简称ANN)是一种高度并行的信息处理系统,它具有高度的容错性,自组织能力和自学习能力;它以神经科学的研究成果为基础,反映了人脑功能的若干基本特性,对传统的计算机结构和人工智能方法是一个有力的挑战,其目的在于探索人脑加工、储存和搜索信息的机制,进而应用于人工智能系统。 1.1 神经网络的研究历史及发展现状 神经网络的研究已有较长的历史。1943年,心理学家McCulloch和数学家Pitts合作提出形式(兴奋与抑制型)神经元的数学模型(MP模型),开创了神经科学理论研究的时代。1944年,Hebb提出了神经元连接强度的修改规则,它们至今仍在各种神经网络模型中起着重要作用。50年代末60年代初,开始了作为人工智能的网络系统的研究。1958年,F.Rosenblatt首次引进了模拟人脑感知和学习能力的感知器概念,它由阈值性神经元组成。1962年,B.Widrow提出的自适应线性元件(adaline),具有自适应学习功能,在信息处理、模式识别等方面受到重视和应用。在这期间,神经网络大都是单层线性网络。此时,人们对如何解决非线性分割问题很快有了明确的认识,但此时,计算机科学已被人工智能研究热潮所笼罩。80年代后,传统的数字计算机在模拟视听觉的人工智能方面遇到了物理上不能逾越的基线,此时,物理学家Hopfield提出了HNN模型,引入了能量函数的概念,给出了网络稳定性的判据,同时开拓了神经网络用于联想记忆和优化计算的新途径。神经网络的热潮再次掀起。此后,Feldmann和Ballard 的连接网络模型指出了传统的人工智能“计算”与生物的“计算”的不同点,给出了并行分布的计算原则;Hinton和Sejnowski提出的Boltzman机模型则急用了统计物理学的概念和方法,首次采用了多层网络的学习算法,保证整个系统趋于全局稳定点;Rumelhart和McClelland等人发展了多层网络的BP算法;Kosko提出了双向联想记忆网络;Hecht-Nielsen提出了另一种反向传播网络,可用于图像压缩和统计分析;Holland提出了分类系统类似于以规则为基础的专家系统。这些努力为神经网络的后期发展奠定了牢固的基础。 目前,神经网络在研究方向上已经形成多个流派,包括多层网络BP算法,Hopfield网络模型,自适应共振理论(ART),自组织特征映射理论等。1987年,IEEE在San Diego召开大规模的神经网络国际学术会议,国际神经网络学会也随之诞生。 迄今为止的神经网络研究。大体可分为三个大的方向:

matlab BP神经网络

基于MATLAB的BP神经网络工具箱函数 最新版本的神经网络工具箱几乎涵盖了所有的神经网络的基本常用模型,如感知器和BP网络等。对于各种不同的网络模型,神经网络工具箱集成了多种学习算法,为用户提供了极大的方便[16]。Matlab R2007神经网络工具箱中包含了许多用于BP网络分析与设计的函数,BP网络的常用函数如表3.1所示。 3.1.1BP网络创建函数 1) newff 该函数用于创建一个BP网络。调用格式为: net=newff net=newff(PR,[S1S2..SN1],{TF1TF2..TFN1},BTF,BLF,PF) 其中, net=newff;用于在对话框中创建一个BP网络。 net为创建的新BP神经网络; PR为网络输入向量取值范围的矩阵; [S1S2…SNl]表示网络隐含层和输出层神经元的个数; {TFlTF2…TFN1}表示网络隐含层和输出层的传输函数,默认为‘tansig’; BTF表示网络的训练函数,默认为‘trainlm’; BLF表示网络的权值学习函数,默认为‘learngdm’; PF表示性能数,默认为‘mse’。

2)newcf函数用于创建级联前向BP网络,newfftd函数用于创建一个存在输入延迟的前向网络。 3.1.2神经元上的传递函数 传递函数是BP网络的重要组成部分。传递函数又称为激活函数,必须是连续可微的。BP网络经常采用S型的对数或正切函数和线性函数。 1) logsig 该传递函数为S型的对数函数。调用格式为: A=logsig(N) info=logsig(code) 其中, N:Q个S维的输入列向量; A:函数返回值,位于区间(0,1)中; 2)tansig 该函数为双曲正切S型传递函数。调用格式为: A=tansig(N) info=tansig(code) 其中, N:Q个S维的输入列向量; A:函数返回值,位于区间(-1,1)之间。 3)purelin 该函数为线性传递函数。调用格式为: A=purelin(N) info=purelin(code) 其中, N:Q个S维的输入列向量; A:函数返回值,A=N。 3.1.3BP网络学习函数 1)learngd 该函数为梯度下降权值/阈值学习函数,它通过神经元的输入和误差,以及权值和阈值的学习效率,来计算权值或阈值的变化率。调用格式为: [dW,ls]=learngd(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) [db,ls]=learngd(b,ones(1,Q),Z,N,A,T,E,gW,gA,D,LP,LS)

基于MATLAB 的神经网络的仿真

智能控制 基于MATLAB 的神经网络的仿真 学院: 姓名: 学号: 年级: 学科:检测技术与自动化装置 日期:

一.引言 人工神经网络以其具有信息的分布存储、并行处理以及自学习能力等优点, 已经在模式识别、 信号处理、智能控制及系统建模等领域得到越来越广泛的应用。MATLAB中的神经网络工具箱是以人工神经网络理论为基础, 利用MATLAB 语言构造出许多典型神经网络的传递函数、网络权值修正规则和网络训练方法,网络的设计者可根据自己的需要调用工具箱中有关神经网络的设计与训练的程序, 免去了繁琐的编程过程。 二.神经网络工具箱函数 最新版的MATLAB 神经网络工具箱为Version4.0.3, 它几乎涵盖了所有的神经网络的基本常用类型,对各种网络模型又提供了各种学习算法,我们可以根据自己的需要调用工具箱中的有关设计与训练函数,很方便地进行神经网络的设计和仿真。目前神经网络工具箱提供的神经网络模型主要用于: 1.数逼近和模型拟合; 2.信息处理和预测; 3.神经网络控制; 4.故障诊断。 神经网络工具箱提供了丰富的工具函数,其中有针对某一种网络的,也有通用的,下面列表中给出了一些比较重要的工具箱函数。

三.仿真实例 BP 网络是一种多层前馈神经网络,由输入层、隐层和输出层组成。BP 网络模型结构见图1。网络同层节点没有任何连接,隐层节点可以由一个或多个。网络的学习过程由正向和反向传播两部分组成。在正向传播中,输入信号从输入层节点经隐层节点逐层传向输出层节点。每一层神经元的状态只影响到下一层神经元网络,如输出层不能得到期望的输出,那么转入误差反向传播过程,将误差信号沿原来的连接通路返回,通过修改各层神经元的权值,逐次地向输入层传播去进行计算,在经正向传播过程,这两个过程反复运用,使得误差信号最小或达到人们所期望的要求时,学习过程结束。

bp神经网络及matlab实现

bp神经网络及matlab实现 分类:算法学习2012-06-20 20:56 66399人阅读评论(28) 收藏举报网络matlab算法functionnetworkinput 本文主要内容包括:(1) 介绍神经网络基本原理,(2) https://www.wendangku.net/doc/4a12578953.html,实现前向神经网络的方法,(3) Matlab实现前向神经网络的方法。 第0节、引例 本文以Fisher的Iris数据集作为神经网络程序的测试数据集。Iris数据集可以在https://www.wendangku.net/doc/4a12578953.html,/wiki/Iris_flower_data_set 找到。这里简要介绍一下Iris数据集: 有一批Iris花,已知这批Iris花可分为3个品种,现需要对其进行分类。不同品种的Iris花的花萼长度、花萼宽度、花瓣长度、花瓣宽度会有差异。我们现有一批已知品种的Iris花的花萼长度、花萼宽度、花瓣长度、花瓣宽度的数据。 一种解决方法是用已有的数据训练一个神经网络用作分类器。 如果你只想用C#或Matlab快速实现神经网络来解决你手头上的问题,或者已经了解神经网络基本原理,请直接跳到第二节——神经网络实现。 第一节、神经网络基本原理 1. 人工神经元( Artificial Neuron )模型 人工神经元是神经网络的基本元素,其原理可以用下图表示:

图1. 人工神经元模型 图中x1~xn是从其他神经元传来的输入信号,wij表示表示从神经元j到神经元i的连接权值,θ表示一个阈值( threshold ),或称为偏置( bias )。则神经元i的输出与输入的关系表示为: 图中yi表示神经元i的输出,函数f称为激活函数 ( Activation Function )或转移函数( Transfer Function ) ,net称为净激活(net activation)。若将阈值看成是神经元i的一个输入x0的权重wi0,则上面的式子可以简化为: 若用X表示输入向量,用W表示权重向量,即: X = [ x0 , x1 , x2 , ....... , xn ]

用遗传算法优化BP神经网络的Matlab编程实例

用遗传算法优化BP神经网络的 Matlab编程实例 由于BP网络的权值优化是一个无约束优化问题,而且权值要采用实数编码,所以直接利用Matlab遗传算法工具箱。以下贴出的代码是为一个19输入变量,1个输出变量情况下的非线性回归而设计的,如果要应用于其它情况,只需改动编解码函数即可。 程序一:GA训练BP权值的主函数 function net=GABPNET(XX,YY) %-------------------------------------------------------------------------- % GABPNET.m % 使用遗传算法对BP网络权值阈值进行优化,再用BP 算法训练网络 %-------------------------------------------------------------------------- %数据归一化预处理 nntwarn off XX=premnmx(XX); YY=premnmx(YY); %创建网络 net=newff(minmax(XX),[19,25,1],{'tansig','tansig','purelin'},' trainlm'); %下面使用遗传算法对网络进行优化 P=XX; T=YY; R=size(P,1); S2=size(T,1); S1=25;%隐含层节点数 S=R*S1+S1*S2+S1+S2;%遗传算法编码长度 aa=ones(S,1)*[-1,1]; popu=50;%种群规模 initPpp=initializega(popu,aa,'gabpEval');%初始化种群 gen=100;%遗传代数 %下面调用gaot工具箱,其中目标函数定义为gabpEval [x,endPop,bPop,trace]=ga(aa,'gabpEval',[],initPpp,[1e-6 1 1],'maxGenTerm',gen,... 'normGeomSelect',[0.09],['arithXover'],[2],'nonUnifMutatio n',[2 gen 3]); %绘收敛曲线图 figure(1) plot(trace(:,1),1./trace(:,3),'r-'); hold on plot(trace(:,1),1./trace(:,2),'b-'); xlabel('Generation'); ylabel('Sum-Squared Error'); figure(2) plot(trace(:,1),trace(:,3),'r-'); hold on plot(trace(:,1),trace(:,2),'b-'); xlabel('Generation'); ylabel('Fittness'); %下面将初步得到的权值矩阵赋给尚未开始训练的BP网络 [W1,B1,W2,B2,P,T,A1,A2,SE,val]=gadecod(x); net.LW{2,1}=W1; net.LW{3,2}=W2; net.b{2,1}=B1; net.b{3,1}=B2; XX=P; YY=T; %设置训练参数 net.trainParam.show=1; net.trainParam.lr=1; net.trainParam.epochs=50; net.trainParam.goal=0.001; %训练网络 net=train(net,XX,YY); 程序二:适应值函数 function [sol, val] = gabpEval(sol,options) % val - the fittness of this individual % sol - the individual, returned to allow for Lamarckian evolution % options - [current_generation] load data2 nntwarn off XX=premnmx(XX); YY=premnmx(YY); P=XX; T=YY; R=size(P,1); S2=size(T,1); S1=25;%隐含层节点数 S=R*S1+S1*S2+S1+S2;%遗传算法编码长度 for i=1:S, x(i)=sol(i); end; [W1, B1, W2, B2, P, T, A1, A2, SE, val]=gadecod(x);

BP神经网络原理及MATLAB仿真

BP Neural Network principle and MATLAB Simulation Xiong Xin Nie Mingxin School of Information Engineering School of Information Engineering Wuhan University of Technology Wuhan University of Technology Wuhan, P. R. China 430070 Wuhan, P. R. China 430070 sense1559@https://www.wendangku.net/doc/4a12578953.html, niemx@https://www.wendangku.net/doc/4a12578953.html, Abstract This paper introduces the prevalent BP algorithm in neural network, and discusses the goodness、problem and training process of BP neural network, as well as using MATLAB software to simulate the numbers on the basis of it. At last, several improved BP training algorithms have been compared in the paper. Keywords: BP neural network; number recognition; MATLAB 1 Introduction The development of neural network is rapid since the first neural network model——MP model came up in 1943[1]. Hopfield neural network proposed in 1982 and opposite phase broadcast algorithm proposed by Rumelhart in 1985 make the neural network of Hopfield model and multilayer feedforward model to be the prevalent neural network model. They are effective in many applications of fields such as speech recognition, mode recognition, image processing and industry controlling. Neural network is an theory which is imitative of the biological processing model to get the function of information intelligent processing. It treats with the pattern information which is hard to be expressed in certain language by the method from bottom to top and parallel distribution way formed by self-study, self-organization and non-linear dynamics. Neural network is a parallel and distributed information processing network architecture. It is generally composed by massive neurons, each of which has only one output that can connect many other neurons. The reciprocity between neurons is embodied by their connected weighs. The output of neurons is its input function. The types of functions in common use have linear function, Sigmoid function and value function. There are two phases of positive transmitting processing and error reverse transmitting processing in the study processing of BP neural network[2]. The signal inputted from outside spreads to the output layer and gives the result through processing layer for layer of neurons in input layer and hidden layer. If the expected output can’t be obtained in output layer, it shifts to the conversed spreading processing and the true value and the error outputted by network will return along the coupled access formerly. The error is reduced by modifying contacted weight value of neurons in every layer and then it shifts to the positive spreading processing and revolves iteration until the error is smaller the given value. Take a three layer network for example, the network is composed of N input neurons, K hidden neurons and M output neurons(as showed in fig.1). O2pm and O1pk are the output value of output layer and hidden layer respectively. w2km and w1nk are the connected weight value from the hidden layer to the output layer and from the input layer to the hidden layer respectively. Suppose the input studying sample is Xpn, so its corresponding expected output value is tpm. Fig.1 BP neural network configuration

BP神经网络matlab实例

BP神经网络及其MATLAB实例 问题:BP神经网络预测2020年某地区客运量和货运量 公路运量主要包括公路客运量和公路货运量两方面。某个地区的公路运量主要与该地区的人数、机动车数量和公路面积有关,已知该地区20年(1999-2018)的公路运量相关数据如下: 人数/万人: 20.5522.4425.3727.1329.4530.1030.9634.0636.4238.09 39.1339.9941.9344.5947.3052.8955.7356.7659.1760.63机动车数量/万辆: 0.60.750.850.9 1.05 1.35 1.45 1.6 1.7 1.85 2.15 2.2 2.25 2.35 2.5 2.6 2.7 2.85 2.95 3.1 公路面积/单位:万平方公里: 0.090.110.110.140.200.230.230.320.320.34 0.360.360.380.490.560.590.590.670.690.79 公路客运量/万人:5126621777309145104601138712353157501830419836 21024194902043322598251073344236836405484292743462公路货运量/万吨: 1237137913851399166317141834432281328936 11099112031052411115133201676218673207242080321804影响公路客运量和公路货运量主要的三个因素是:该地区的人数、机动车数量和公路面积。 Matlab代码实现 %人数(单位:万人) numberOfPeople=[20.5522.4425.3727.1329.4530.1030.9634.0636.42 38.0939.1339.9941.9344.5947.3052.8955.7356.7659.1760.63]; %机动车数(单位:万辆) numberOfAutomobile=[0.60.750.850.91.051.351.451.61.71.852.15 2.2 2.25 2.35 2.5 2.6 2.7 2.85 2.95 3.1]; %公路面积(单位:万平方公里) roadArea=[0.090.110.110.140.200.230.230.320.320.340.360.360.38

相关文档
相关文档 最新文档