文档库 最新最全的文档下载
当前位置:文档库 › 第九讲 极大似然估计

第九讲 极大似然估计

第九讲 极大似然估计
第九讲 极大似然估计

第九讲 极大似然估计

极大似然估计方法在金融领域中的应用十分广泛。该方法利用已知的概率密度函数形式,构造对数似然函数,然后最大化该似然函数从而求得概率密度函数中所含的参数估计量。比如:对GARCH(1,1)模型中的参数估计中,如果均值方程中的扰动项服从正态分布,则我们可以利用正态分布的概率密度函数对所含参数进行估计。

1.极大似然估计基本原理 (1)参数估计

下面以线性回归中系数的极大似然估计为例来说明极大似然估计基本原理。考虑线性回归:Y X βε=+,2~(0,)Y X N εβσ=?

则对于X 和Y 的每一对观测值(,)i i X Y ,这里,i X 为行向量,其概率密度函

数形式如下:

2

(,))i i f X Y =

给定N 对相互独立的观测值(,)i i X Y ,1,2,...,i N =,样本中所有观测值的总体概率密度函数(,)L βσ为单个观测值概率密度函数的乘积,即:

2

1(,))N

i L βσ== (1) 极大似然估计要给出参数(,)βσ的估计量使得(1)式最大。由于(1)式为乘积的形式,直接对最大化(1)式求解最优解,比较麻烦。因此,采用似然函数的

对数形式:

21(,)[)]N

i i i LnL Ln Y X βσβ==?∑

然后求解以下最优化问题:

2(,)

1max (,)[)]N

i i i LnL Ln Y X βσβσβ==?∑ (2)

最后得到的参数(,)βσ的估计量与普通最小二乘法得到的结果一样。因此,当普通最小二乘法回归方程中的残差服从正态分布时,普通最小二乘估计与极大似然估计的结果是一样的。

更一般地,我们用θ表示需要估计的参数向量,相应地对数似然函数为:()LnL θ。 (2)参数估计的标准误差

求解优化问题(2),虽然给出了参数θ的估计量?θ

,但并没有给出估计的标

准误差。如果对数似然函数()LnL θ在其估计量?θ

处的二阶倒数的期望是已知的,则极大似然估计量的渐进协方差矩阵1[()]I θ?满足:

21

11

()()()[()]{[]}{[()()]}LnL LnL LnL I E E θθθθθθθθ??????=?=′′

???? (3)

通常情况下()LnL θ是一个非常复杂的非线性函数,我们很难得到(3)式中期望值的解析解形式。因此,根据(3)式来求解极大似然估计量的渐进协方差矩阵

1[()]I θ?的解析解形式很困难。其中一个方法就是利用下面的式子(4)来估计

1[()]I θ?,其中1??[()]I

θ?为1[()]I θ?的估计。 111????[()][]N

i i i I g g

θ??=′=∑ (4) 其中:?[(,)]??i i Ln f X g θ

θ

?=?

[(,)]i Ln f X θ表示在观测值(,)i i X Y 处的对数似然函数。

由于(4)式中的[(,)]i Ln f X θ在通常情况下仍然是一个复杂的非线性函数,

求解?i g 的解析形式也非常困难。因此,我们通常以数值解形式(5)来近似?i g 。

????[(,)][(,)]??2i i

i i Ln f X Ln f X g

h θθθθθ

+????≈=? (5) 因此,极大似然估计量的渐进协方差矩阵估计量为11

[]N

i i i h h ?=′∑。

2.极大似然估计的MATLAB 函数

基于以上极大似然估计的原理,我们可以编写以下MATLAB 函数进行极大似然估计。

function [para,standard_deviation,fv]=my_mle(fun,para0,y)

%estimate parameters and standard errors when using maximum likelihood estimation(MLE)

%para0 and y are column vectors;

%fun: log probability density function (pdf) and likelihood function %y: observed values;

%para0 : given initial parameters; %%%%%%%%%%%

%example:

%function f=mynormpdfsum(x,num,y)

%y=1/sqrt(2*pi)/x(2)*exp(-(y-x(1)).^2/2/x(2)^2); %if num==1 (note: it must be set to 1) %f=log(y);

%else f=-sum(log(y));end %%%%%%%%%

%y=2+3*randn(5000,1);

%[para,standard_deviation]=my_mle('mynormpdfsum',[0;2],y) %%%%%%%%%

%Zhiguang Cao, 2006,2,23 %caozhiguang@https://www.wendangku.net/doc/9a4254222.html,

[para,fv]=fminsearch(fun,para0,[],2,y); n=length(para);

d=numericalfirstderivative(fun,para,1,y); standard_deviation=sqrt(diag(pinv(d'*d)));

function f=numericalfirstderivative(fun,parameter,varargin) % input:

% fun: the name of a function

% parameter: given parameter with respect to which first-order derivative is calculated

% others: other needed parameters required by fun % output:

% f: numerical first order derivative of fun at parameter n=length(parameter); for i=1:n

a=zeros(n,1);

a(i)=min(parameter(i)*1e-6,1e-4);

y1(:,i)=feval(fun,parameter+a,varargin{:}); y2(:,i)=feval(fun,parameter-a,varargin{:}); f(:,i)=(y1(:,i)-y2(:,i))/2/a(i); end

下面我们给出一个例子。考虑一个随机变量X ,X 以α的概率取1X ,1X 服

从均值为1μ,方差为21σ的正态分布;以1α?的概率取2X ,2X 服从均值为2μ,

方差为2

2σ的正态分布。现假定观测到随机变量X 的2000个实现值,试估计参数

1212(,,,,)θαμμσσ′=。

我们得到单个观测值i x 的概率密度函数为:

22(,))(1)i f x θα

α=+?

我们首先编写以下形式的函数mle_ex_001:

function f=mle_ex_001(parameter,num,observations)

alpha=parameter(1);mean1=parameter(2);mean2=parameter(3); std1=parameter(4);std2=parameter(5);

y=alpha*1/sqrt(2*pi)/std1*exp(-(observations-mean1).^2/2/std1^2)+... (1-alpha)*1/sqrt(2*pi)/std2*exp(-(observations-mean2).^2/2/std2^2); if num==1 f=log(y); else

f=-sum(log(y)); end

然后在MATLAB 主窗口下输入:

clear

n=2000;% set number of observations

alpha=0.7;mean1=0;mean2=1;std1=1;std2=2;%set parameters for i=1:n

rv=rand(1); %%%%%%%%

%generate normally distributed random variable with mean 0 and standard %deviation 1 with probability 0.7. if rv<=alpha

observations(i)=randn(1); else

%generate normally distributed random variable with mean 1 and standard %deviation 2 with probability 0.3. observations(i)=normrnd(1,2); end end

observations=observations(:);

[para,standard_deviation]=my_mle('mle_ex_001',[0.5;0;0;1;1],observations)

得到结果如下: para = 0.3038 1.2578 -0.0344 1.9639 0.9719

standard_deviation = 0.0446 0.1730 0.0421

0.0420

即得到该随机变量以30.38%的概率为服从均值为1.2578,标准差为1.9639的正态分布;以69.62%的概率为服从均值为-0.0344,标准差为0.9719的正态分布。这个结果与我们设定的以30%的概率为服从均值为1,标准差为2的正态分布;以70%的概率为服从均值为0,标准差为1的正态分布比较接近。 3.上证综合指数收益率广义双曲线分布的极大似然估计

金融资产收益率的分布,对金融资产投资、风险管理等具有重要意义,吸引了众多学者研究这个问题。现实金融数据的分布通常表现为厚尾性和不对称性,因此用正态分布拟合实际金融数据的分布有很大的局限性,比如在VAR 的计算中,由于金融数据分布的厚尾性,在正态分布的假设条件下计算VAR 会带来较大的误差。为此许多学者开始寻求更为合理的分布假设。Mandelbrot 提出了用稳定分布代替金融数据正态分布的假设,但稳定分布的尾部通常比实际分布要更厚。又有学者提出用截尾的稳定分布作为证券收益率的分布,截尾的稳定分布实际上是中间部分仍用稳定分布, 两个尾部用比负幂律分布瘦的指数分布来代替的一种混合分布,但运用截尾的稳定分布假设时,应当在何处截尾是一个问题。因此,又有许多学者开始转向广义双曲线分布(Generalized Hyperbolic Distribution )。1977年Barndorff-Nielsen 提出了广义双曲线分布,Eberlein 和Keller(1995)则首先将其应用到了金融领域,由于广义双曲线分布的尾部要比稳定分布的尾部要“薄”,因此广义双曲线分布在金融领域中得到了迅速发展。

广义双曲线分布的概率密度函数定义如下:

)

(225.025.02/22))(())()(,,,,(),,,,,(μβλλμδαμδμδβαλμδβαλ????+?+=x e x K x g x GH 其中:(.)νK 为调整后的第二类Bessel 函数。

22/2

(,,,,) 0 g λλαβδμλδα

=

>≤当时,

广义双曲线分布可以派生出以下两个分布:逆高斯分布(当5.0?=λ)和双

曲线分布(当1=λ)

。 下面以1990年12月20日—2005年12月31日的上证综指日对数收益率为例进行了广义双曲线分布的参数估计。

假定我们在MATLAB 主窗口下已经得到上证综指日对数收益率y ,则在MATLAB 主窗口下输入:

[para,standard_deviation]=my_mle('gh_log_fun',[-1;25;1;0.0005;0.02],y) 得到结果如下:

para = -0.8206 8.1582 0.7939 0.0001 0.0134

standard_deviation =

2.0768

0.8736

0.0003

0.0008

函数gh_log_fun的具体形式如下:

function f=gh_log_fun(x,num,y)

lambda=x(1);alpha=x(2);beta=x(3);delta=x(4);mu=x(5); a=(alpha^2-beta^2)^(lambda/2);

b=sqrt(2*pi)*alpha.^(lambda-0.5)*delta^(lambda);

c=besselk(lambda,delta*sqrt(alpha.^2-beta^2));

g=a/(b*c);

a1=(delta^2+(y-mu).^2).^(lambda/2-0.25);

b1=besselk(lambda-0.5,alpha*sqrt(delta^2+(y-mu).^2)); c1=exp(beta*(y-mu));

y=g*a1.*b1.*c1;

if num==1

f=log(y);

else

f=-sum(log(y));

end

然后在MATLAB主窗口下输入:

[x,density]=empirical_density(y,200);

[xx,pdf]=gh_pdf(para,y);

h=figure;

set(h,'color','w')

plot(xx,pdf,'r-')

hold on

plot(x,density,'b:')

legend('generalized hyperbolic pdf','sample pdf',1)

结果得到上证综合指数样本概率密度函数与基于广义双曲线分布的概率密度函数的图形比较。由图可以看出:广义双曲线很好地拟合了样本的经验分布。

函数gh_pdf为广义双曲线分布的概率密度函数,其具体内容如下:

function [xx,pdf]=gh_pdf(x,y)

xx=sort(y);

lambda=x(1);alpha=x(2);beta=x(3);mu=x(4);delta=x(5);

a=(alpha^2-beta^2)^(lambda/2);

b=sqrt(2*pi)*alpha.^(lambda-0.5)*delta^(lambda);

c=besselk(lambda,delta*sqrt(alpha.^2-beta^2));

g=a/(b*c);

a1=(delta^2+(xx-mu).^2).^(lambda/2-0.25);

b1=besselk(lambda-0.5,alpha*sqrt(delta^2+(xx-mu).^2));

c1=exp(beta*(xx-mu));

pdf=g*a1.*b1.*c1;

极大似然估计法

《概率论与数理统计》 极大似然思想 一般地说,事件A 与参数Θ∈θ有关,θ取值不同, 则)(A P 也不同.若A 发生了,则认为此时的θ值就是θ的估计值.这就是极大似然思想.看一例子 :例1、设袋中装有许多黑、白球,不同颜色球的数量比为3:1,试设计一种方法,估计任取一球为黑球的概率P . 分析:易知P 的值无非是1/4或3/4.为估计P 的值,现从袋中有放回地任取3只球,用X 表示其中的黑球数,则),3(~P b X .按极大似然估计思想,对P 的取值进行估计. 解:对P 的不同取值,X 取3,2,1,0=k 的概率可列表如下: X 0 1 2 3 41=P 6427 6427 649 641 43 =P 64 1 64 9 64 27 64 27 故根据极大似然思想即知:?????===3,2,4 31,0,41?k k P . 在上面的例子中,P 是分布中的参数,它只能取两个值:1/4或3/4,

需要通过抽样来决定分布中参数究竟是1/4还是3/4.在给定了样本观测值后去计算该样本出现的概率,这一概率依赖于P 的值,为此需要用1/4、3/4分别去计算此概率,在相对比较之下,哪个概率大,则P 就最象那个. 二、似然函数与极大似然估计 1、离散分布场合: 设总体X 是离散型随机变量,其概率函数为);(θx p ,其中θ是未知参数.设n X X X ,,,21 为取自总体X 的样本.n X X X ,,,21 的联合概率函数为∏=n i i X p 1);(θ,这里,θ是常量,n X X X ,,,21 是变量. 若我们已知样本取的值是n x x x ,,,21 ,则事件 },,,{2211n n x X x X x X === 发生的概率为∏=n i i x p 1);(θ.这一概率随θ的 值而变化.从直观上来看,既然样本值n x x x ,,,21 出现了,它们出现的概率相对来说应比较大,应使∏=n i i x p 1);(θ取比较大的值.换句话说,θ应 使样本值n x x x ,,,21 的出现具有最大的概率.将上式看作θ的函数,并用 )(θL 表示,就有:

用极大似然法进行参数估计

北京工商大学 《系统辨识》课程 上机实验报告 (2014年秋季学期) 专业名称:控制工程 上机题目:极大似然法进行参数估计 专业班级: 2015年1月 实验目的 通过实验掌握极大似然法在系统参数辨识中的原理和应用。

二实验原理 1极大似然原理 设有离散随机过程{V k }与未知参数二有关,假定已知概率分布密度 fMR 。如果我们 得到n 个独立的观测值 V 1 ,V 2,…,V n ,则可得分布密度 , f (V 20),…,f(V n 0)。 要求根据这些观测值来估计未知参数 二,估计的准则是观测值 {{V k } }的出现概率为最大。 为此,定义一个似然函数 LMM, f(Vn" 上式的右边是n 个概率密度函数的连乘, 似然函数L 是日的函数。如果L 达到极大值,{V k } 的出现概率为最大。 因此,极大似然法的实质就是求出使 L 达到极大值的二的估值二。为了 便于求d ,对式(1.1 )等号两边取对数,则把连乘变成连加,即 n 解上式可得二的极大似然估计"ML O 2系统参数的极大似然估计 Newton-Raphson 法实际上就是一种递推算法,可以用于在线辨识。不过它是一种依每 L 次观测数据 递推一次的算法,现在我们讨论的是每观测一次数据就递推计算一次参数估计值 得算法。本质上说,它只是一种近似的极大似然法。 设系统的差分方程为 a(z') y(k) =b(z°)u(k) + :(k) (2.1 ) 式中 a(z') =1 a 1z^ …a n z 」 b(z')二 b ° …dz" 因为(k)是相关随机向量,故(2.1 )可写成 a(z')y(k) =b(zju(k) +c(z')g(k) (2.2 ) 式中 c(z') ;(k)二(k) (2.3 ) c(z\ =1 C|Z ,亠 亠 (2.4 ) ;(k)是均值为 0的高斯分布白噪声序列。多项式 a(z=) , b(z*)和c(z^)中的系数 a i,..,a,b o ,…b n,G,…C n 和序列{^(k)}的均方差o ■ ln L =瓦 ln f (V i 日) 由于对数函数是单调递增函数,当 对二的偏导数,令偏导数为 0,可得 :: ln L cO i 4 L 取极大值时,lnL 也同时取极大值。求式 (1.2 ) 1.2 ) =0 (1.3 )

概率论与数理统计:极大似然估计法

教学内容 一、引入新课: 矩估计法虽然简单,但是没有用到已知分布的信息。而在极大似然估计法中,我们将改进这一点。 下面先通过一个例子来说明极大似然估计法的原理: 例1 有两个外形相同的箱子,甲箱和乙箱,各有100个球,甲箱有90个黑球,10个白球,乙箱有10个黑球 ,90个白球。很明显,两个箱中的优势球种完全不一样。现在把甲乙两箱的标签撕掉,随机从一箱中,进行返回式抽取4次,其结果全为黑球,问所取的球来自哪一个箱子? 我相信大家都会说是甲箱,因为它的可能性更大。我们也可以进行如下计算来说明这个结果。 解:设i X 表示第i 次取球的结果)4,3,2,1(=i ,4321,,,X X X X 是相互独立的。 已知, 443214321)1()1()1()1()1,1,1,1(p X P X P X P X P X X X X P ========== 若从甲箱中抽取,则9.0=p ,抽取4次全为黑球的概率为6561.0, 若从乙箱中抽取,则1.0=p ,抽取4次全为黑球的概率为0001.0. 0.0001是一个小概率,一般认为小概率事件在一次试验中是不可能发生的。反过来也就说明一次试验中某事件发生了,这个事件的概率应该较大。这就是极大似然估计法的基本思想。 二、讲授新课: 1、极大似然法的基本原理: 一个随机试验有若干可能结果, A ,B ,C 等等,然后进行了一次试验,

如果结果A 出现了,我们认为试验的条件对A 的出现有利,也就是试验条件对A 的概率应该是最大。 把这样的原理用到参数估计上,就是总体X 服从分布中含有未知参数θ,在一次试验中出现了样本n x x ,,1 ,如何估计θ呢?极大似然估计的思想,试验的条件应该使这组样本观测值出现的概率最大。所以,要计算参数θ就是寻找使样本观测值出现的概率达到最 大值的θ ?。这样找到的θ?就是θ的极大似然估计值。 2、 极大似然法的步骤: (1)似然函数:);,,(1θn x x L );,,(11θn n x X x X P === ???????==∏∏==似然函数是其密度函数是连续型随机变量时,当似然函数是其分布律是离散型随机变量时,当i n i i i n i i i X x f X x X P ,);(,)(1 1θ (2)取对数: );,,(ln 1θn x x L (3)求导:0);,,(ln 1=??θ θn x x L 似然方程 (4)求解似然方程,得参数的估计值。 (首先,构造似然函数:似然函数是样本观测值发生的概率,如果X 是离散型随机变量,似然函数就是其分布律;如果X 是连续型随机变量,似然函数就是其密度函数。接下来我们就是要求当θ取什么值时,使得似然函数取得的值最大。这里可以用微积分中求最值的方法,也就是对未知参数θ求导。但是似然函数形式往往较为复杂,是连乘积,因此可以先取对数再求导。然后令其导数等于0,得到似然方程。最后,解这个似然方程就得到参数θ?的估计值。) 3、极大似然估计法的例题 例2若X 服从0-1分布,其中)10(<

最大似然估计法

最大似然估计法的基本思想 最大似然估计法的思想很简单:在已经得到试验结果的情况下,我们应该寻找使这个结果出现的可能性最大的那个作为真的估计。 我们分两种情进行分析: 1.离散型总体 设为离散型随机变量,其概率分布的形式为,则样 本的概率分布为, 在固定时,上式表示取值的概率; 当固定时,它是的函数,我们把它记为并称 为似然函数。似然函数的值的大小意味着该样本值出现的可能性的大小。既然已经得到了样本值,那它出现的可能性应该是大的, 即似然函数的值应该是大的。因而我们选择使达到最大值的那个作为真的估计。 2.连续型总体 设为连续型随机变量,其概率密度函数为则为从该总体抽出的样本。因为相互独立且同分布,于是,样本的联合概率密度函数为 ,在是固定时,它 是在处的密度,它的大小与落 在附近的概率的大小成正比,而当样本值固定时,它是的函数。我们仍把它记为并称为似然函数。类似于刚才的讨论,我们选择使最大的那个作为真的估计。

总之,在有了试验结果即样本值时,似然函数反映了的各个不同值导出这个结果的可能性的大小。我们选择使达到最大值的那个作为 真的估计。这种求点估计的方法就叫作最大似然法。 7.2.2 最大似然估计的求法 假定现在我们已经观测到一组样本要去估计未知参数。一种直观的想法是,哪一组能数值使现在的样本出现的可能性最大,哪一组参数可能就是真正的参数,我们就要用它作为参数的估计值。这里,假定我们有一组样本.如果对参数的 两组不同的值和,似然函数有如下关系 , 那么,从又是概率密度函数的角度来看,上式的意义就是参 数使出现的可能性比参数使出现的可能性大,当然参数比更像是真正的参数.这样的分析就导致了参数估计的一种方法,即用使似然函数达到最大值的点,作为未知参数的估计,这就是所谓的最大似然估计。现在我们讨论求最大似然估计的具体方法.为简单起见,以下记,求θ的极大似然估计就归结为求的最大值点.由于对数函数是单调增函数,所以 (7.2.1) 与有相同的最大值点。而在许多情况下,求的最大值点比较简单,于是,我们就 将求的最大值点改为求的最大值点.对关于求导数,并命其等于零,得到方程组 , (7.2.2) 称为似然方程组。解这个方程组,又能验证它是一个极大值点,则它必是,也就

用极大似然法进行全参数估计

工商大学 《系统建模与辨识》课程 上机实验报告 (2016年秋季学期) 专业名称:控制工程 上机题目:用极大似然法进行参数估计专业班级:计研3班 学生:王瑶吴超 学号: 10011316259 10011316260 指导教师:翠玲 2017 年 1 月

一 实验目的 通过实验掌握极大似然法在系统参数辨识中的原理和应用。 二 实验原理 1 极大似然原理 设有离散随机过程}{k V 与未知参数θ有关,假定已知概率分布密度)(θk V f 。如果我们得到n 个独立的观测值,21,V V …n V ,,则可得分布密度)(1θV f ,)(2θV f ,…,)(θn V f 。要求根据这些观测值来估计未知参数θ,估计的准则是观测值{}{k V }的出现概率为最大。为此,定义一个似然函数 ) ()()(),,,(2121θθθθn n V f V f V f V V V L ΛΛ= (1.1) 上式的右边是n 个概率密度函数的连乘,似然函数L 是θ的函数。如果L 达到极大值,}{k V 的出现概率为最大。因此,极大似然法的实质就是求出使L 达到极大值的θ的估值∧ θ。为了便于求∧ θ,对式(1.1)等号两边取对数,则把连乘变成连加,即 ∑==n i i V f L 1 )(ln ln θ (1.2) 由于对数函数是单调递增函数,当L 取极大值时,lnL 也同时取极大值。求式(1.2) 对θ的偏导数,令偏导数为0,可得 0ln =??θL (1.3) 解上式可得θ的极大似然估计ML ∧ θ。 2 系统参数的极大似然估计 Newton-Raphson 法实际上就是一种递推算法,可以用于在线辨识。不过它是一种依每L 次观测数据递推一次的算法,现在我们讨论的是每观测一次数据就递推计算一次参数估计值得算法。本质上说,它只是一种近似的极大似然法。 设系统的差分方程为 )()()()()(1 1 k k u z b k y z a ξ+=-- (2.1) 式中 111()1...n n a z a z a z ---=+++ 1101()...n n b z b b z b z ---=+++ 因为)(k ξ是相关随机向量,故(2.1)可写成 )()()()()()(1 1 1 k z c k u z b k y z a ε---+= (2.2)

最新6极大似然估计汇总

6极大似然估计

第1章 极大似然估计 极大似然估计是非线性模型中非常重要的一种估计方法。最小二乘法是极大似然估计在线性模型中的特例。 1.1 似然函数 假设随机变量x t 的概率密度函数为 f (x t ),其参数用θ= (θ1, θ2, …, θk ) 表示,则对于一组固定的参数 θ 来说,x t 的每一个值都与一定的概率相联系。即给定参数θ,随机变量x t 的概率密度函数为f (x t )。相反若参数 θ 未知,当得到观测值x t 后,把概率密度函数看作给定x t 的参数 θ 的函数,这即是似然函数。 L (θ | x t ) = f (x t | θ ) 似然函数L (θ | x t ) 与概率密度函数f (x t | θ ) 的表达形式相同。所不同的是在f (x t | θ ) 中参数 θ 是已知的,x t 是未知的;而在L (θ | x t ) 中x t 是已知的观测值,参数 θ是未知的。 对于n 个独立的观测值x =(x 1, x 2, …, x n ),其联合概率密度函数为 1 (|)(|)n i i f f x ==∏x θθ 其对应的似然函数为: 1 1 (|)(|)(|)n n i i i i LnL LnL x f x ====∑∏θx θθ 经常使用的是对数似然函数,即对L (θ| x t )取自然对数: LnL (θ | x t ) =log[f (x t | θ )] 例 1.1正态分布随机变量的似然函数 设一组随机变量x i ,(i = 1, 2, …, n )是相互独立的,且服从正态分布N (μ,σ2)。存在N 个独立的观测值x =(x 1, x 2, …, x n )。x i 的似然函数为 2 21/22()1 (,|)(|,)exp (2)2i i i i x L x f x μμσμσπσσ?? -==- ?? ? = 1i x μφσσ-??- ??? 其中,φ表示标准正态分布的概率密度函数,2() 2 x x φ?? = - ??? x i 的对数似然函数为: 21(,|)ln()ln ()2i i i x LnL x μμσσφσ-?? =-+ ???

第八章(第节极大似然估计)

第八章参数估计 第一节参数的点估计 二、极大似然估计法 极大似然估计最早是由高斯于1821年提出,但一般将之归功于英国统计学家Fisher,R.A,因为Fisher,R.A在1922年证明了极大似然估计的性质,并使得该方法得到了广泛的应用。 这里介绍估计的另一种常用方法-极大似然估计法。 先看一个简单的例子: 某位同学与一位猎人一起外出打猎,一只野兔从前方窜过.只听到一声枪响,野兔应声倒下.如果要你推测,是谁打中的呢?你会如何想呢? 你就会想,只发一枪便打中,猎人命中的概率一般大于这位同学命

中的概率.看来这一枪有极大的可能是猎人射中的. 这个推断很符合人们的经验事实,这里的“极大的可能”就是“极大似然”之意。 这个例子所作的推断已经体现了极大似然法的基本思想. 极大似然法的基本思想在社会思维意识中常有所体现。例如某地发生了一个疑难案件,警察欲破案或民众推测嫌疑人,一般是将重点集中在作案可能性较大的可疑人身上。 为了说明极大似然估计的原理,我们先来考察一个简单的估计问题。 设袋中装有许多白球和黑球。只知两种球的数目之比为3:1,试判断是白球多还是黑球多。 显然,从袋中任取一球为黑球的

概率p 是41或者43,如果是41 ,则袋中 白球多,如果是4 3 ,就是黑球多。现 在我们从袋中有放回的任取3只球,那么黑球数目X 服从二项分布: x x x p p C p x X P --==33 )1(};{, 3,2,1,0=x ; 4 3 ,41=p 其中p 为取到黑球的概率. 从常识上可以接受这样的判断: (1)若取出的3只中有0只黑球, 3只白球,则我们以较大的把握认为袋中白球多, 应认为是从黑球概率 为4 1 =p 的总体中取来的. (2)若取出的3只中有1只黑球, 2只白球,则我们以较大的把握认为

用极大似然法进行参数估计(特选参考)

北京工商大学 《系统建模与辨识》课程 上机实验报告 (2016年秋季学期) 专业名称:控制工程 上机题目:用极大似然法进行参数估计专业班级:计研3班 学生姓名:王瑶吴超 学号:10011316259 10011316260 指导教师:刘翠玲 2017 年 1 月

一 实验目的 通过实验掌握极大似然法在系统参数辨识中的原理和应用。 二 实验原理 1 极大似然原理 设有离散随机过程}{k V 与未知参数θ有关,假定已知概率分布密度)(θk V f 。如果我们得到n 个独立的观测值,21,V V …n V ,,则可得分布密度)(1θV f ,)(2θV f ,…,)(θn V f 。要求根据这些观测值来估计未知参数θ,估计的准则是观测值{}{k V }的出现概率为最大。为此,定义一个似然函数 ) ()()(),,,(2121θθθθn n V f V f V f V V V L = (1.1) 上式的右边是n 个概率密度函数的连乘,似然函数L 是θ的函数。如果L 达到极大值,}{k V 的出现概率为最大。因此,极大似然法的实质就是求出使L 达到极大值的θ的估值∧ θ。为了便于求∧ θ,对式(1.1)等号两边取对数,则把连乘变成连加,即 ∑==n i i V f L 1 )(ln ln θ (1.2) 由于对数函数是单调递增函数,当L 取极大值时,lnL 也同时取极大值。求式(1.2) 对θ的偏导数,令偏导数为0,可得 0ln =??θL (1.3) 解上式可得θ的极大似然估计ML ∧ θ。 2 系统参数的极大似然估计 Newton-Raphson 法实际上就是一种递推算法,可以用于在线辨识。不过它是一种依每L 次观测数据递推一次的算法,现在我们讨论的是每观测一次数据就递推计算一次参数估计值得算法。本质上说,它只是一种近似的极大似然法。 设系统的差分方程为 )()()()()(1 1 k k u z b k y z a ξ+=-- (2.1) 式中 111()1...n n a z a z a z ---=+++

看刘文元四柱预测实例

看刘文元四柱预测实例 2004年公历2月9日上午,一名中年男子前来求测,经相聊,他对易学也有研究,尤其在四柱学方面下过大功夫,但对于自己的四柱,总有许多疑惑解不开。为此,特前来向我求教。我让他报出四柱。汪学凯:男 己亥癸酉甲午庚午 大运: 0 ———— 10 壬申 10 ———— 20 辛未 20 ———— 30 庚午 30 ———— 40 己巳 40 ———— 50 戊辰 50 ———— 60 丁卯 我分析了一下其四柱原局的组合,参考了一番大运,对汪学凯讲:你这一生适合在官场发展,不适合经商求财。应该是个文官。汪学凯用疑惑的眼光看着我:“刘老师,您说我这日主甲木在整个四柱中

是身旺还是身弱?”“当然是身弱了。”我自信地回答。 “既然身弱,那么官杀就是忌神了,难道我这个四柱是一个从官格的?”汪学凯不解地问道。 “你这个四柱完全是一个正常格局的,不属于从格,只是身弱而已。”我对汪讲。 “我这四柱日主身弱,又不能定为从格,并且又判定我是做官的,又是文官,这便很令人费解了。但您断得正确,我是××中学的校长。只是我从四柱中找不到恰当的判断理由。刘老师,您能否再讲一下我其他方面的事情,并讲讲您的判断依据是什么?”汪学凯很谦虚地对我说。 “完全可以!从你的四柱中看,你在兄弟姐妹中排行老大,是长子。”我对汪说。 “十分准确!我兄妹三人,我是老大。”汪马上验证。 “你妻子家境不错,经济条件很好,你俩从小就在一起长大的,可以算上青梅竹马了。”我笑着说。 “刘老师您的四柱功底太深了!说得跟看见似的,我妻子确实是

我们家老临居,小时候我们一起玩耍,一起上小学、中学。她爸爸是个厂长,又是工程师,母亲是个教师,家庭条件很不错。刘老师,您这是从哪儿看出来的?”汪学凯很想知道我的断语之来源。 我没有马上回答他,接着又对他说:“小时候你妻子的性格比较外向,而你的性格比较内向,在一起玩耍的时候她总喜欢占上风,而你会很聪明机智地让着她。有时她拿家里父母给的零花钱买东西给你。在小学、中学时,她的学习成绩一直不如你优秀。” “太神奇了!刘老师所断简直如亲眼所见一般。小时候我总让着她,但她的学习成绩不如我好,经常让我给她讲解一些不懂的难题。她家经济条件好,所以她手中不缺零花钱。经常买一些学习用品、小食品之类的送给我。刘老师,我从没见过象你这样断四柱的,太细致了!太准确了!”汪学凯非常兴奋地说。 “你母亲是一个离祖在外的人。她总是身体不太好,常年有病,但她头脑十分聪明,她长得很象你姥姥(外婆)。”我又从四柱中读出一些信息。 “很准确。我母亲16岁就离开老家,后来在外找了工作,结了婚。她身体一直不是很好,小时候得过肺结核,后来在30多岁又复发了一

极大似然估计法

《概率论与数理统计》典型教案 教学内容:极大似然估计法 教学目的: 通过本节内容的教学,使学生: 1、明确极大似然估计法是在总体分布类型已知的情况下的一种常用的参数估计方法; 2、理解极大似然思想; 3、掌握求极大似然估计值的一般步骤,会求常见分布参数的极大似然估计值. 教学重点: 1、对极大似然思想阐述; 2、极大似然估计值的求解. 教学难点: 对不能通过求导方法获得极大似然估计的值的确定. 教学时数:2学时. 教学过程: 引例:某位同学与一位猎人一起外出打猎,一只野兔从前方窜过.只听一声枪响,野兔应声到下,如果要你推测,这一发命中的子弹是谁打的?你就会想,只发一枪便打中,由于猎人命中的概率一般大于这位同学命中的概率,看来这一枪是猎人射中的. 这个例子所作的推断就体现了极大似然法的基本思想. 一、极大似然思想 一般地说,事件A 与参数Θ∈θ有关,θ取值不同,则)(A P 也不同.若 A 发生了,则认为此时的θ值就是θ的估计值.这就是极大似然思想.看一例子:例1、设袋中装有许多黑、白球,不同颜色球的数量比为3:1,试设计一种方法,估计任取一球为黑球的概率P . 分析:易知P 的值无非是1/4或3/4.为估计P 的值,现从袋中有放回地任取3只球,用X 表示其中的黑球数,则),3(~P b X .按极大似然估计思想,对P 的取值进行估计. 解:对P 的不同取值,X 取3,2,1,0=k 的概率可列表如下:

X 0 1 2 3 41=P 6427 6427 649 64 1 43=P 641 649 6427 6427 故根据极大似然思想即知:?????===3,2,4 31,0,41?k k P . 在上面的例子中,P 是分布中的参数,它只能取两个值:1/4或3/4,需要通过抽样来决定分布中参数究竟是1/4还是3/4.在给定了样本观测值后去计算该样本出现的概率,这一概率依赖于P 的值,为此需要用1/4、3/4分别去计算此概率,在相对比较之下,哪个概率大,则P 就最象那个. 二、似然函数与极大似然估计 1、离散分布场合: 设总体X 是离散型随机变量,其概率函数为);(θx p ,其中θ是未知参数.设n X X X ,,,21 为取自总体X 的样本.n X X X ,,,21 的联合概率函数为∏=n i i X p 1);(θ,这里,θ是常量,n X X X ,,,21 是变量. 若我们已知样本取的值是n x x x ,,,21 ,则事件 },,,{2211n n x X x X x X === 发生的概率为∏=n i i x p 1);(θ.这一概率随θ的 值而变化.从直观上来看,既然样本值n x x x ,,,21 出现了,它们出现的概率相对来说应比较大,应使∏=n i i x p 1);(θ取比较大的值.换句话说,θ应 使样本值n x x x ,,,21 的出现具有最大的概率.将上式看作θ的函数,并用)(θL 表示,就有:

相关文档