相关系数的检验 样本相关系数r的计算依赖于样本,即使两样本来自同 总体,算出相关系数的数值也不一定相同纵然总体相关 系数ρ=0,也不能排除由于抽样的偶然性而造成≠0,因此, 我们不能一看到r0,就认定两个随机变量相关,必须对总 体相关系数是否为零的假设 H0:xy=0;H1:px≠0.作检验。 在H0成立时,可以证明统计量 n-2 t(n-2) 据此可以进行相关系数的检验。给定a查附表7得临界值 a/2 当|t|>t时,拒绝H0,否则不拒绝H 0 例3(续例2)样本相关系数r=0.9395,1=10,试检验X与 Y相关是否具有统计学意义?
三、相关系数的检验 样本相关系数r的计算依赖于样本,即使两样本来自同 一总体, 算出相关系数的数值也不一定相同.纵然总体相关 系数ρ =0, 也不能排除由于抽样的偶然性而造成r≠0,因此, 我们不能一看到r≠0 ,就认定两个随机变量相关,必须对总 体相关系数是否为零的假设 H0 : ρXY = 0 ; H1 : ρXY ≠ 0 . 作检验。 在H0 成立时,可以证明统计量 据此可以进行相关系数的检验。给定α查附表7得临界值 t α/2 ,当∣t∣> t α/2 时, 拒绝H0 ,否则不拒绝H0 。 例3 (续例2)样本相关系数r=0.9395,n=10,试检验X与 Y相关是否具有统计学意义? ~ ( 2) 1 2 2 − − − = t n r r n t
§92单个自变量的线性回归 对回归问题的研究最初起源于生物学界。1886年英 国生物学兼统计学家 F Galton在他的一篇著名论文中指出, 在同一种族里,父亲高的,其儿子的平均高度较父亲矮,但 比种族平均高度高父亲矮的,其儿子的平均高度较父亲高, 但比种族平均高度矮。即儿子的高度有“回归”于种族 平均高度的趋势。 从相关分析与回归分析的原理来看,相关分析是分 析变量间的相互关系,而回归分析是分析变量间的依存 关系(如儿子的身高与父亲身高的依存关系)。相关分 析所考虑的两个变量X与Y皆为随机变量,而回归分析则 考虑的是一个随机变量Y与另一个非随机变量X之间的依 存关系 本节要求理解线性回归方程的概念,掌握用最小二 乘法求解线性回归方程
§9.2 单个自变量的线性回归 对回归问题的研究最初起源于生物学界。1886年英 国生物学兼统计学家F.Galton在他的一篇著名论文中指出, 在同一种族里, 父亲高的,其儿子的平均高度较父亲矮,但 比种族平均高度高,父亲矮的,其儿子的平均高度较父亲高, 但比种族平均高度矮。即儿子的高度有“回归”于种族 平均高度的趋势。 从相关分析与回归分析的原理来看, 相关分析是分 析变量间的相互关系,而回归分析是分析变量间的依存 关系(如儿子的身高与父亲身高的依存关系)。相关分 析所考虑的两个变量X与Y皆为随机变量,而回归分析则 考虑的是一个随机变量Y与另一个非随机变量X之间的依 存关系。 本节要求理解线性回归方程的概念,掌握用最小二 乘法求解线性回归方程
回归的概念 设X为一般变量,Y为随机变量。在考察Y对X的回归关系中,常称 X为自变量,Y为因变量或反应变量。Y与X间关系的特点:在一定范 围内任意给定X=x时,随机变量Y虽然没有确定的值与之对应但是Y 的分布通常是确定的。如果这个分布的数学期望存在,则称X与Y相 应的数学期望E(Y|X=x)的函数关系EY|X=x)=f(x)为回归函数,其 图形称为理论回归曲线。 在实际研究中,回归函数的解析式常常是未知的,知道的仅是 若干样本观察点(x1y)i=1,2,,n。因此,要确立该回归函数,必 需对其函数的类型提出假设。如假设(x)=a+x,f(x)=ea+px f(x)=Asin(ox)+Bcos(ox)等等。由于假设中的函数类型不同,因而 有线性(直线)回归与非线性(曲线)回归,若按自变量的个数多 少有简单回归(单个自变量回归)和多重回归(多个自变量回归) 若按因变量的多少又有一元回归和多元回归 回归分析首先是确立样本观察值的回归函数,并在此基础上对 其参数进行区间估计和假设检验,以判断其回归效果,进而应用效 果好的回归方程进行实际的预测和控制
一、回归的概念 设X为一般变量,Y为随机变量。在考察Y对X的回归关系中, 常称 X为自变量,Y为因变量或反应变量。Y与X间关系的特点: 在一定范 围内任意给定X=x时,随机变量Y虽然没有确定的值与之对应,但是Y 的分布通常是确定的。如果这个分布的数学期望存在, 则称X与Y相 应的数学期望E(Y︱X=x)的函数关系E(Y︱X=x)=f(x)为回归函数,其 图形称为理论回归曲线。 在实际研究中,回归函数的解析式常常是未知的, 知道的仅是 若干样本观察点(xi ,yi)i=1,2,…,n 。因此,要确立该回归函数,必 需对其函数的类型提出假设。如假设f(x)=α+βx , f(x)=eα+βx , f(x)=Asin(ωx)+Bcos(ωx) 等等。由于假设中的函数类型不同,因而 有线性(直线)回归与非线性(曲线)回归,若按自变量的个数多 少有简单回归(单个自变量回归)和多重回归(多个自变量回归), 若按因变量的多少又有一元回归和多元回归。 回归分析首先是确立样本观察值的回归函数,并在此基础上对 其参数进行区间估计和假设检验,以判断其回归效果, 进而应用效 果好的回归方程进行实际的预测和控制
二、回归方程的建立 1单个自变量线性回归模型的基本假设 在回归分析中许多资料都具有以下特性: 1)线性性:X与Y满足:E(Y|X=x)=+Bx a称为截距,β称为斜率,又称为回归系数。它们都是未知 参数。 (2)独立性:容量为n的样本必须相互独立 ↓.)正态性:给定X的取值x时,相应的Y服从正态分布,即 的随机取值,在中心点x,E(Y|X=x)上下波动,且x变动 后,中心点按上式全部在某条直线上。 (4)方差齐性:不同x值对应Y的变异性完全相同,即Y的 方差¤2不依赖于x值的变化,即Y-N(a+Bx,a2)。 这四个可作为回归分析资料的基本假设,按它们的第 个英文字母联写起来,简记为LⅠNE
二、回归方程的建立 1.单个自变量线性回归模型的基本假设 在回归分析中,许多资料都具有以下特性: (1)线性性: X与Y满足: E(Y︱X=x )=α+βx α称为截距, β 称为斜率,又称为回归系数。它们都是未知 参数。 (2)独立性: 容量为n的样本必须相互独立. (3)正态性: 给定X的取值x时,相应的Y服从正态分布,即 Y的随机取值,在中心点[x,E(Y︱X=x)]上下波动,且x变动 后,中心点按上式全部在某条直线上。 (4)方差齐性: 不同x值对应Y的变异性完全相同,即Y的 方差σ 2 不依赖于x值的变化, 即 Y~N(α+βx , σ2 ) 。 这四个可作为回归分析资料的基本假设,按它们的第 一个英文字母联写起来,简记为LINE