文档库 最新最全的文档下载
当前位置:文档库 › MCMC方法分析

MCMC方法分析

MCMC方法分析
MCMC方法分析

龙源期刊网 https://www.wendangku.net/doc/651480449.html,

MCMC方法分析

作者:黄小艳

来源:《中国市场》2015年第14期

[摘要]本文主要介绍了Monte Carlo integration和 Markov Chain的构成原理,阐述了Metropolis-Hastings算法和Gibbs抽样法两种算法的基本原理。

[关键词]MCMC方法;M-H算法;Gibbs抽样

1949年,Metropolis和Ulam共同发表了第一篇关于蒙特卡罗方法的论文,其基本思想是:当所求解问题是某种随机事件出现的概率或者是某个随机变量的期望值时,通过某种“实验”的方法,以这种事件出现的频率估计这一随机事件的概率,或者得到这个随机变量的某些数字特征,并将其作为问题的解。

1953年6月,Nicolas Metropolis与Marshall N等在《The Journal of Chemical Physics》上

发表了一篇题为“Equations o f State Calculations by Fast Computing Machines”的文章,标志着Markov Chain Monte Carlo(MCMC)方法的诞生。MCMC方法的基本思想是构造一个概率转移矩阵,建立一个以分布π(x)为平稳分布的Markov链来得到π(x)的样本,通过随机抽样得到的这些样本然后进行各种统计推断。

1 MCMC的构成

1.1 Monte Carlo integration

但是如果后验概率函数难以得到时,该方法则不适用。

1.2 Markov Chain

3 结论

近年来,统计学家逐渐把研究重点转向了MCMC方法,这种方法应用甚广,可靠性强,主要用来模拟复杂的、非标准化的多元(多变量)分布,特别是当信息不全或者数据缺失时,可以通过Gibbs抽样,根据条件分布来推导联合分布,可以有效改善以往方法不能考虑总体情况的缺陷,在大样本情况下,能够很好地将已知的总体分布信息纳入到对缺失数据的处理当中;当然仿真导致的伪随机的算法再好也不是真正随机,因此,应用MCMC方法时应加以注意。

参考文献:

[1]茆诗松.贝叶斯统计[M].北京:中国统计出版社,1999.

MCMC算法

第7章MCMC算法 本章将介绍的马氏链蒙特卡罗(MCMC)方法是用来生成近似服从f分布的随机变量X的样本,从而估计关于X的函数的期望。 7.1 Metropolis-Hastings 算法 Metropolis-Hastings 算法是一种非常通用的构造马氏链的方法。这个方法从t=0开始,取X(0)=x(0),其中x(0)是从某个初始分布g中随机抽取的样本使得满足f(x(0))>0。给定X(t)=x(t),下面的算法用于产生X(t+1)。 (1)由某提案密度g(?|x(0))产生一个候选值X?. (2)计算Metropolis-Hastings比率R(x(t),X?),其中 R(u,v)=f(v)g(u|v) f(u)g(u|v) (7.1) 注意R(x(t),X?)总是有定义的,因为只有f(x(t))>0且g(x?|x(t))>0时才有X?=x?。 (3)根据下式抽取X(t+1): X(t+1)={X?,以概率min{R(x(t),X?),1}, x(t),否则. (7.2) (4)增加t,返回第1步。 我们将第t步迭代称作产生X(t)=x(t)的过程。 通过Metropolis-Hastings算法构造得到的链满足马氏性,因为X(t+1)仅依赖于X(t)。而是否是非周期不可约的则取决于提案分布的选取,需要自己去检验是否满足这些条件。如果满足了,那么这样生成的链具有唯一的极限平稳分布。 7.1.1独立链

假设选取Metropolis-Hastings算法的提案分布为某个固定的密度函数使得g(x?|x(t))=g(x?)。此时Metropolis-Hastings比率为 R(x(t),X?)=f(X?)g(x(t)) (7.4) f(x)g(X) 如果g(x)>0,则有f(x)>0,那么得到的马氏链就是非周期不可约的。 注:选择重要抽样包络的准则同样适用于选择提案密度。提案密度g应 与目标分布f近似,并在尾部包含f。 Code 7.1.2 随机游动链

MCMC及R实现

贝叶斯集锦(3):从MC、MC到MCMC 2013-07-31 23:03:39 #####一份草稿 贝叶斯计算基础 一、从MC、MC到MCMC 斯坦福统计学教授Persi Diaconis是一位传奇式的人物。Diaconis14岁就成了一名魔术师,为了看懂数学家Feller的概率论著作,24岁时进入大学读书。他向《科学美国人》投稿介绍他的洗牌方法,在《科学美国人》上常年开设数学游戏专栏的著名数学科普作家马丁?加德纳给他写了推荐信去哈佛大学,当时哈佛的统计学家Mosteller 正在研究魔术,于是Diaconis成了Mosteller的学生。(对他这段传奇经历有兴趣的读者可以看一看统计学史话《女士品茶》)。下面要讲的这个故事,是Diaconis 在他的文章The Markov Chain Monte Carlo Revolution中给出的破译犯人密码的例子。一天,一位研究犯罪心理学的心理医生来到斯坦福拜访Diaconis。他带来了一个囚犯所写的密码信息。他希望Diaconis帮助他把这个密码中的信息找出来。这个密码里的每个符号应该对应着某个字母,但是如何把这些字母准确地找出来呢?Diaconis和他的学生Marc采用了一种叫做MCMC(马尔科夫链蒙特卡洛)的方法解决了这个问题。这个MCMC方法就是这一节我们所要讨论的内容。 (1)贝叶斯推断的计算问题 在上节我们看到,贝叶斯统计学是利用后验分布对θ进行推断。这种推断的计算很多情况下要用积分计算来完成。比如,我们要计算θ的函数g(θ)的期望: E(g(θ∣x))=∫g(θ)fθ∣x(θ∣x)dθ 其中函数f表示后验分布。当g(θ)=θ时,得到的就是关于θ的点估计。

蒙特卡罗马尔科夫链模拟方法MCMC

Monte Carlo Simulation Methods (蒙特卡罗模拟方法) 主要内容: 1.各种随机数的生成方法. 2.MCMC方法. 1

2 从Buffon 投针问题谈起 Buffon 投针问题:平面上画很多平行线,间距为a .向此平面投掷长 为l (l < a) 的针, 求此针与任一平行线相交的概率p 。 22[0,/2] [0,] sin ,{:sin }. l l a X A X 随机投针可以理解成针的中心 点与最近的平行线的距离X 是均匀 地分布在区间 上的r.v.,针 与平行线的夹角是均匀地分布 在区间 上的r.v.,且X 与相互独立, 于是针与平行线相交的充要条件为 即相交

3Buffon 投针问题 2sin 0022(sin ) 2l l l p P X dxd a a 于是有: 2l ap 若我们独立重复地作n 次投针试验,记 ()n A 为A 发生的次数。()n f A 为A 在n 次中出现的频率。假如我们取 ()n f A 作为()p P A 的估计,即?()n p f A 。 然后取2?() n l af A 作为的估计。根据大数定律,当n 时,..?().a s n p f A p 从而有2?()P n l af A 。这样可以用随机试验的方法求得的估计。历史上 有如下的试验结果。

4 3.14159292 180834080.831925Lazzarini 3.1595148910300.751884Fox 3.15665121832040.601855Smith 3.15956253250000.801850Wolf π的估计值相交次数投针次数针长时间(年)试验者

MCMC方法分析

龙源期刊网 https://www.wendangku.net/doc/651480449.html, MCMC方法分析 作者:黄小艳 来源:《中国市场》2015年第14期 [摘要]本文主要介绍了Monte Carlo integration和 Markov Chain的构成原理,阐述了Metropolis-Hastings算法和Gibbs抽样法两种算法的基本原理。 [关键词]MCMC方法;M-H算法;Gibbs抽样 1949年,Metropolis和Ulam共同发表了第一篇关于蒙特卡罗方法的论文,其基本思想是:当所求解问题是某种随机事件出现的概率或者是某个随机变量的期望值时,通过某种“实验”的方法,以这种事件出现的频率估计这一随机事件的概率,或者得到这个随机变量的某些数字特征,并将其作为问题的解。 1953年6月,Nicolas Metropolis与Marshall N等在《The Journal of Chemical Physics》上 发表了一篇题为“Equations o f State Calculations by Fast Computing Machines”的文章,标志着Markov Chain Monte Carlo(MCMC)方法的诞生。MCMC方法的基本思想是构造一个概率转移矩阵,建立一个以分布π(x)为平稳分布的Markov链来得到π(x)的样本,通过随机抽样得到的这些样本然后进行各种统计推断。 1 MCMC的构成 1.1 Monte Carlo integration 但是如果后验概率函数难以得到时,该方法则不适用。 1.2 Markov Chain 3 结论 近年来,统计学家逐渐把研究重点转向了MCMC方法,这种方法应用甚广,可靠性强,主要用来模拟复杂的、非标准化的多元(多变量)分布,特别是当信息不全或者数据缺失时,可以通过Gibbs抽样,根据条件分布来推导联合分布,可以有效改善以往方法不能考虑总体情况的缺陷,在大样本情况下,能够很好地将已知的总体分布信息纳入到对缺失数据的处理当中;当然仿真导致的伪随机的算法再好也不是真正随机,因此,应用MCMC方法时应加以注意。 参考文献: [1]茆诗松.贝叶斯统计[M].北京:中国统计出版社,1999.

_马尔可夫链蒙特卡洛_MCMC_方法在估计IRT模型参数中的应用

IRT自20世纪60年代出现以来,由于其理论模型的科学性和精确性见长,一开始就受到心理和教育测量学的研究者和实际工作者的关注和兴趣。至今已成为考试技术学研究领域中最有影响的一种现代测量理论。但理论的严谨性又导致了计算的复杂性,因而也影响了IRT的普及和应用乃至它的考试研究2006年10月第2卷第4期ExaminationsResearchOct.2006Vol.2,No.4 “马尔可夫链蒙特卡洛”(M CM C)方法在估计IRT 模型参数中的应用[1][2] 王权编译【摘要】本文介绍和阐述怎样运用“马尔可夫链蒙特卡洛”(MCMC)技术,并结合Bayes方法来估计IRT的模型参数。首先简要地概述了MCMC方法估计模型参数的基本原理;其次介绍MCMC方法估计模型参数的一般方法,涉及Gibbs抽样、取舍抽样、Metropolis-Hastings算法等概念和方法;最后以IRT的“二参数逻辑斯蒂”(2PL)模型为例,重点介绍了用“Gibbs范围内的M-H算法”估计项目参数(β1jβ2j)的算法过程。结束本文时还解说了MCMC方法的特点。 阅读本文需具有随机过程、Markov链、Bayes方法等概率论的基本知识。 【关键词】项目反应理论 马尔可夫链蒙特卡洛Gibbs抽样取舍抽样作者简介王权,教授,浙江大学教育系。浙江杭州,310028。45

《考试研究》第2卷第4期 发展速度。令我们欣喜的是在20世纪90年代,国外统计学家又推陈出新地提出了参数估计的新方法,使IRT的应用和发展又迈出了新的一步。 模型参数的估计是IRT的核心内容。以往的参数估计方法主要有“条件极大似然估计”(CMLE)、“联合极大似然估计”(JMLE)、“边际极大似然估计” (MMLE)和“条件期望—极大化算法”(E-MAlgorithm)等,大致上后一种算法均是前一种算法的改进[3]。E-M算法是由R.D.Bock和M.Aitkin于1981年创立,它是以MMLE方法为基础发展而成。在E-M算法中,E步要涉及精确的数字积分计算,或者在M步要涉及偏导计算,当模型较复杂时,计算就十分困难。加之,它还难以将项目参数估计中的“不可靠性”(uncertainty)结合进能力参数估计时不可靠性的计算;反之亦然。 “马尔可夫链蒙特卡洛”(MarkovChainMonteCarlo,MCMC)方法是一种动态的计算机模拟技术,它是根据任一多元理论分布,特别是根据以贝叶斯(Bayes)推断为中心的多元后验分布来模拟随机样本的一种方法。它在估计IRT模型参数的应用中,一方面继承了以往估计能力参数和项目参数时所采用的“分而治之”(divide-and-conquer)的策略,采用能力参数与项目参数交替迭代计算的方法生成Markov链;然后采取迥然不同于极大似然方法的思路,充分发挥计算机模拟技术的优势,采集充分大的状态样本,用初等的方法来估计模型参数,绕开了E-M算法中的复杂计算,从而提高了估计的成功率。 —“Gibbs采样1992年统计学家J.H.Albert首先将一种特殊的MCMC方法—— 法”应用于IRT问题的研究。现在它已被推广应用于多种复杂的IRT模型,在应用于大范围的教育测验评价中尤显它的长处。本文主要介绍MCMC方法的基本原理和基本方法,为说明方便,只列举应用于较为简单状况的二参数逻辑斯蒂模型,它是进一步推广应用的基础。 一、MCMC方法的基本原理 用MCMC方法估计IRT的模型参数的基本思路是:首先定义一Markov链,M0,M1,M2,…,Mk,…状态Mk=(θk,βk),k=1,2,…其中θ为能力参数,β为项目参数,θ和β可以为多维;然后根据Markov链模拟观测(即模拟状态);最后用所得的模拟观测推断参数θ和β。在一定的规则条件下,随着k的增长,状态Mk的46

相关文档