文档库 最新最全的文档下载
当前位置:文档库 › T检验、F检验和P值详述

T检验、F检验和P值详述

T检验、F检验和P值详述
T检验、F检验和P值详述

T检验、F检验和P值

一、T检验、F检验和统计学意义(P值或sig值)

1、T检验和F检验的由来

一般而言,为了肯定从样本(sample)统计结果推论至总体时所犯错的概率,我们会应用统计学家所开发的一些统计办法,进行统计检定。

通过把所得到的统计检定值,与统计学家树立了一些随机变量的概率分布(probability distribution)进行对比,我们可以知道在多少%的机遇下会得到目前的结果。倘若经比较后发现,涌现这结果的机率很少,亦即是说,是在时机很少、很罕有的情况下才呈现;那我们便可以有信念的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够谢绝虚无假设。相反,若对比后发明,涌现的机率很高,并不罕见;那我们便不能很有信念的直指这不是偶合,也许是偶合,也许不是,但我们没能肯定。

F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t 分布。统计显著性(sig)就是呈现目前样本这结果的机率。

2、统计学意义(P值或sig值)

成果的统计学意义是结果真实水平(能够代表总体)的一种估量方式。专业上,p值为结果可信水平的一个递减指标,p值越大,我们越不能以为样本中变量的关联是总体中各变量关联的可靠指标。p值是将察看结果觉得有效即具有总体代表性的犯错概率。如p=0.05提醒样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们反复相似试验,会发明约20个试验中有一个试验,我们所研讨的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的雷同结果,当总体中的变量存在关联,反复钻研和发明关联的可能性与设计的统计学效率有关。)在许多钻研范畴,0.05的p值通常被以为是可接收过错的边界程度。

3、T检验和F检验

至于具体要检定的内容,须看你是在做哪一个统计程序。

举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这区别是否能推论至总体,代表总体的情况也是存在著差异呢?会不会总体中男女生基本没有区别,只不过是你那么巧抽到这两样本的数值不同?为此,我们进行t检定,算出一个t检定值。

与统计学家树立的以「总体中没差异」作基本的随机变量t散布进行比拟,看看在多少%的机遇(亦即明显性sig值)下会得到目前的成果。

若显著性sig值很少,比如每一种统计方式的检定的内容都不雷同,同样是t 检定,可能是上述的检定总体中是否存在差别,也可能是检定总体中的单一值是否等于0或者等于某一个数值。

至于F检定,方差分析(或译变异数分析,Analysis of Variance),它的原理大致也是上面说的,但它是透过检视变量的方差而进行的。它重要用于:均数差

异的明显性检验、分别各有关因素并估量其对总变异的作用、剖析因素间的交互作用、方差齐性(Equality of Variances)检验等情形。

4、T检验和F检验的关系

t检验进程,是对两样本均数(mean)区别的显著性进行检验。惟t检验须知道两个总体的方差(Variances)是否相等;t检验值的盘算会因方差是否相等而有所不同。也就是说,t检验须视乎方差齐性(Equality of Variances)结果。所以,SPSS在进行t-test for Equality of Means的同时,也要做Levene's Test for Equality of Variances 。

(1)在Levene's Test for Equality of Variances一栏中F值为2.36,Sig.为.128,表现方差齐性检验「没有显著差别」,即两方差齐(Equal Variances),故下面t 检验的结果表中要看第一排的数据,亦即方差齐的情形下的t检验的结果。

(2)在t-test for Equality of Means中,第一排(Variances=Equal)的情况:t=8.892,df=84,2-Tail Sig=.000,Mean Difference=22.99

既然Sig=.000,亦即,两样本均数差别有显著性意义!

(3)到底看哪个Levene's Test for Equality of Variances一栏中sig,还是看t-test for Equality of Means中那个Sig. (2-tailed)啊?答案是两个都要看。

先看Levene's Test for Equality of Variances,如果方差齐性检验「没有明显差别」,即两方差齐(Equal Variances),故接著的t检验的结果表中要看第一排的数据,亦即方差齐的情形下的t检验的结果。

反之,如果方差齐性检验「有显著差异」,即两方差不齐(Unequal Variances),故接著的t检验的结果表中要看第二排的数据,亦即方差不齐的情况下的t检验的结果。

(4)你做的是T检验,为什么会有F值呢?

就是因为要评估两个总体的方差(Variances)是否相等,要做Levene's Test for Equality of Variances,要检验方差,故所以就有F值。

另一种说明:

t检验有单样本t检验,配对t检验和两样本t检验。

单样本t检验:是用样本均数代表的未知总体均数和已知总体均数进行比拟,来察看此组样本与总体的差异性。

配对t检验:是采取配对设计办法察看以下几种情况:1、两个同质受试对象分离接收两种不同的处置;2、同一受试对象接收两种不同的处置;3、同一受试对象处置前后。

F检验又叫方差齐性检验。在两样本t检验中要用到F检验。

从两研讨总体中随机抽取样本,要对这两个样本进行对比的时候,首先要断定两总体方差是否雷同,即方差齐性。若两总体方差相等,则直接用t检验,若不等,可采取t'检验或变量变换或秩和检验等办法。

其中要断定两总体方差是否相等,就可以用F检验。

若是单组设计,必须给出一个尺度值或总体均值,同时,提供一组定量的观测成果,利用t检验的前提条件就是该组材料必需遵从正态分布;若是配对设计,每对数据的差值必需遵从正态散布;若是成组设计,个体之间相互独立,两组材料均取自正态分布的总体,并满足方差齐性。之所以需要这些前提条件,是因为必须在这样的前提下所盘算出的t统计量才顺从t散布,而t检验正是以t分布

作为其理论根据的检验方式。

简略来说就是适用T检验是有条件的,其中之一就是要符合方差齐次性,这点须要F检验来验证。

距离分析是对观测量之间或变量之间相似或不相似的程度的一种测度,是计算一对变量之间或一对观测量之间的广义的距离。这些相似性或距离测度可以用于其他分析过程,例如因子分析聚类分析或多位定标分析有助于分析复杂的数据集调用距离分析过程可对变量内部各观察单位间的数值进行距离相关分析,以考察相互间的接近程度,也可对变量间进行距离相关分析。常用于考察预测值对实际值的拟合程度,也可用于考察变量的相似程度同时距离分析还可用于其他统计分析过程如因子分析聚类分析或多位定标分析等等。

二、统计学中的P值与显著性的意义

1、统计学意义(p值)

结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,0.05的p值通常被认为是可接受错误的边界水平。

2、如何判定结果具有真实的显著性

在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。通常,许多的科学领域中产生p值的结果≤0.05被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。结果0.05≥p>0.01被认为是具有统计学意义,而0.01≥p≥0.001被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。

3、所有的检验统计都是正态分布的吗?

并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、f检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了(参阅非参数和方差分析的正态性检验)。这种条件下有两种方法:一是用替代的非参数检验(即无分布性检验),但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低

下、不灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。后一种方法是基于一个相当重要的原则产生的,该原则对正态方程基础上的总体检验有极其重要的作用。即随着样本量的增加,样本分布形状趋于正态,即使所研究的变量分布并不呈正态。

在统计模型中,自由度指样本中可以自由变动的变量的个数,当有约束条件时,自由度减少自由度计算公式:自由度=样本个数-样本数据受约束条件的个数,即df = n - k(df自由度,n样本个数,k约束条件个数)。一组数据,平均数一定,则这组数据有n-1个数据可以自由变化;如一组数据平均数一定,标准差也一定,则有n-2个数据可以自由变化。

相关文档