(9-11)与(9-12)两式称为多元线性回归的平方和与自由度的划分式或剖分式 在(9-11)式中,Ssy=2(y-)2反映了依变量y的总变异;Sg=x-y)2反映了依变 量与多个自变量间存在线性关系所引起的变异,或者反映了多个自变量对依变量的综合线性 影响所引起的变异;SSn=x(y-y)2反映了除依变量与多个自变量间存在线性关系以外的其 他因素包括试验误差所引起的变异。 (9-11)式中各项平方和的计算方法如下 SSn=∑y2-(xy)2n +…+bS (9-12) (9-12)式中各项自由度的计算方法如下: 在上述计算方法中,m为自变量的个数,n为实际观测数据的组数。 在计算出SSR、dR与SS、d之后,我们可以方便地算出回归均方MSg与离回归均方 MS: MS 检验多元线性回归关系是否显著或者多元线性回归方程是否显著,就是检验各自变量的 总体偏回归系数B1(=1、2、…、m)是否同时为零,显著性检验的无效假设与备择假设为: B1=B2 Bn=0,H4:月1、B2、…、Bm不全为零 在H0成立条件下,有 A、MSB.(4=dR,d2=dr) (9-14) 由上述F统计量进行F检验即可推断多元线性回归关系的显著性 这里特别要说明的是,上述显著性检验实质上是测定各自变量对依变量的综合线性影响 的显著性,或者测定依变量与各自变量的综合线性关系的显著性。如果经过F检验,多元线 性回归关系或者多元线性回归方程是显著的,则不一定每一个自变量与依变量的线性关系都 是显著的,或者说每一个偏回归系数不一定都是显著的,这并不排斥其中存在着与依变量无 线性关系的自变量的可能性。在上述多元线性回归关系显著性检验中,无法区别全部自变量 中,哪些是对依变量的线性影响是显著的,哪些是不显著的。因此,当多元线性回归关系经 显著检验为显著时,还必须逐一对各偏回归系数进行显著性检验,发现和剔除不显著的偏回 归关系对应的自变量。另外,多元线性回归关系显著并不排斥有更合理的多元非线性回归方 程的存在,这正如直线回归显著并不排斥有更合理的曲线回归方程存在一样。 对于【例9.1】,建立的三元线性回归方程为 y=76552+0.1282x1+0.0617x2-0.5545x3 现在对三元线性回归关系进行显著性检验。 已计算得:
167 (9-11)与(9-12)两式称为多元线性回归的平方和与自由度的划分式或剖分式。 在(9-11)式中, 2 SS ( y y) y = − 反映了依变量 y 的总变异; 2 SS (y ˆ y) R = − 反映了依变 量与多个自变量间存在线性关系所引起的变异,或者反映了多个自变量对依变量的综合线性 影响所引起的变异; 2 SS (y y ˆ) r = − 反映了除依变量与多个自变量间存在线性关系以外的其 他因素包括试验误差所引起的变异。 (9-11)式中各项平方和的计算方法如下: r y R m i R m m i io y SS SS SS SS b SP b SP b SP b SP SS y y n = − = + + + = = − =1 1 10 2 20 0 2 2 ( ) / (9-12) (9-12)式中各项自由度的计算方法如下: 1 1 = − − = = − df n m df m df n r R y 在上述计算方法中, m 为自变量的个数, n 为实际观测数据的组数。 在计算出 SS R 、df R 与 SSr 、dfr 之后,我们可以方便地算出回归均方 MS R 与离回归均方 MSr : R R R df SS MS = ; r r r df SS MS = 检验多元线性回归关系是否显著或者多元线性回归方程是否显著,就是检验各自变量的 总体偏回归系数 i (i =1、2、…、 m )是否同时为零,显著性检验的无效假设与备择假设为: H0 : 1 = 2 == m = 0, H A : 1、 2、、 m不全为零 在 H0 成立条件下,有 , ( , ) 1 R 2 r r R df df df df MS MS F = = = (9-14) 由上述 F 统计量进行 F 检验即可推断多元线性回归关系的显著性。 这里特别要说明的是,上述显著性检验实质上是测定各自变量对依变量的综合线性影响 的显著性,或者测定依变量与各自变量的综合线性关系的显著性。如果经过 F 检验,多元线 性回归关系或者多元线性回归方程是显著的,则不一定每一个自变量与依变量的线性关系都 是显著的,或者说每一个偏回归系数不一定都是显著的,这并不排斥其中存在着与依变量无 线性关系的自变量的可能性。在上述多元线性回归关系显著性检验中,无法区别全部自变量 中,哪些是对依变量的线性影响是显著的,哪些是不显著的。因此,当多元线性回归关系经 显著检验为显著时,还必须逐一对各偏回归系数进行显著性检验,发现和剔除不显著的偏回 归关系对应的自变量。另外,多元线性回归关系显著并不排斥有更合理的多元非线性回归方 程的存在,这正如直线回归显著并不排斥有更合理的曲线回归方程存在一样。 对于【例 9.1】,建立的三元线性回归方程为: 1 2 5545 3 y ˆ = 7.6552 + 0.1282 x + 0.0617 x − 0. x 现在对三元线性回归关系进行显著性检验。 已计算得: SSy = 70.6617
SR=b,SPo+b2 SP20+ b3SP3o 0.1282×114.4530+00617×76.2799+(-0.5545)×(-11.2966) 25.6433 SSr=SS,-SSr 7066l7-256433 45.0184 并且d=n-1=541=53 d=m=3 dr=n-m-1=54-3-1=50 列出方差分析表,进行F检验: 表9-1三元线性回归关系方差分析表 变异来源 25.6433 8.5478 9.493** 离回归 45.0184 0.9004 总变异0.661753 由d1=3、2=50查F值表得F003.0=4.20,因为F>F035oP<0.01。表明,猪瘦肉量 y与眼肌面积x1、胴体长x2、膘厚x3之间存在极显著的线性关系,或者眼肌面积x1、胴体 长x2、膘厚x3对瘦肉量y的综合线性影响是极显著的。 (二)偏回归系数的显著性检验当多元线性回归关系经显著性检验为显著或极显 著时,还必须对每个偏回归系数进行显著性检验,以判断每个自变量对依变量的线性影响是 显著的还是不显著的,以便从回归方程中剔除那些不显著的自变量,重新建立更为简单的多 元线性回归方程。偏回归系数b1(i=1、2、…、m)的显著性检验或某一个自变量对依变量的 线性影响的显著性检验所建立的无效假设与备择假设为: H:B1=0,HA:B1≠0 (i=1、2、…、m) 有两种完全等价的显著性检验方法—1检验与F检验 1、t检验 tb=a,d=n-m-1,(=1、2、…、m) (915) 式中S=SA2m√n为偏回归系数标准误 =√MS为离回归标准误 c为C=A的主对角线元素 2、F检验在多元线性回归分析中,回归平方和Ss反映了所有自变量对依变量的综 合线性影响,它总是随着自变量的个数增多而有所增加,但决不会减少。因此,如果在所考 虑的所有自变量当中去掉一个自变量时,回归平方和SSR只会减少,不会增加。减少的数值 越大,说明该自变量在回归中所起的作用越大,也就是该自变量越重要。 设SSR为m个自变量x1、x2、…、xm所引起的回归平方和,SSh为去掉一个自变量x 后m-1个自变量所引起的回归平方和,那么它们的差Sg-SS即为去掉自变量x;之后,回 归平方和所减少的量,称为自变量x的偏回归平方和,记为SS,即
168 25.6433 0.1282 114.4530 0.0617 76.2799 ( 0.5545 ) ( 11.2966 ) 1 1 0 2 2 0 3 3 0 = = + + − − 而 SSR = b SP + b SP + b SP 45.0184 70.6617 - 25.6433 = = SSr = SSy − SSR 并且 dfy=n-1=54-1=53 dfR=m=3 dfr=n-m-1=54-3-1=50 列出方差分析表,进行 F 检验: 表 9-1 三元线性回归关系方差分析表 变异来源 SS df MS F 回 归 25.6433 3 8.5478 9.493** 离回归 45.0184 50 0.9004 总变异 70.6617 53 由 df1 =3、df2 =50 查 F 值表得 F0.01(3,50)=4.20, 因为 F>F0.01(3,50), P<0.01。表明,猪瘦肉量 y 与眼肌面积 1 x 、胴体长 2 x 、膘厚 3 x 之间存在极显著的线性关系,或者眼肌面积 1 x 、胴体 长 2 x 、膘厚 3 x 对瘦肉量 y 的综合线性影响是极显著的。 (二)偏回归系数的显著性检验 当多元线性回归关系经显著性检验为显著或极显 著时,还必须对每个偏回归系数进行显著性检验,以判断每个自变量对依变量的线性影响是 显著的还是不显著的,以便从回归方程中剔除那些不显著的自变量,重新建立更为简单的多 元线性回归方程。偏回归系数 i b (i =1、2、…、m)的显著性检验或某一个自变量对依变量的 线性影响的显著性检验所建立的无效假设与备择假设为: : 0, : 0 H0 i = H A i (i =1、2、…、m) 有两种完全等价的显著性检验方法──t 检验与 F 检验。 1、t 检验 = , df = n − m −1, S b t i i b i b (i =1、2、…、m) (9-15) 式中 b y m ii S S c i = 12 为偏回归系数标准误; y m MSr n m y y S = − − − = 1 ( ˆ) 2 12 为离回归标准误; ii c 为 C=A -1 的主对角线元素。 2、F 检验 在多元线性回归分析中,回归平方和 SSR 反映了所有自变量对依变量的综 合线性影响,它总是随着自变量的个数增多而有所增加,但决不会减少。因此,如果在所考 虑的所有自变量当中去掉一个自变量时,回归平方和 SSR 只会减少,不会增加。减少的数值 越大,说明该自变量在回归中所起的作用越大,也就是该自变量越重要。 设 SSR 为 m 个自变量 1 x 、 2 x 、…、 xm 所引起的回归平方和, SS R 为去掉一个自变量 i x 后 m-1 个自变量所引起的回归平方和,那么它们的差 SS R SSR − 即为去掉自变量 i x 之后,回 归平方和所减少的量,称为自变量 i x 的偏回归平方和,记为 bi SS ,即: SSbi SSR SSR = −
可以证明 b2/c 偏回归平方和可以衡量每个自变量在回归中所起作用的大小,或者说反映了每个自变量对依 变量的影响程度的大小。值得注意的是,在一般情况下 SSR≠∑Ss 这是因为m个自变量之间往往存在着不同程度的相关,使得各自变量对依变量的作用相互 影响。只有当m个自变量相互独立时,才有 SSp=> 偏回归平方和SSb是去掉一个自变量使回归平方和减少的部分,也可理解为添入一个自 变量使回归平方和增加的部分,其自由度为1,称为偏回归自由度,记为d,即d5=1。 显然,偏回归均方MS为 4=Ss/=S5=b2/c (i=1、2、…、m) (917) 检验各偏回归系数显著性的F检验法应用下述F统计量: F=MS4/MS,(41=1,42=n-m-1)(=1、2、…、m) (9-18) 可以将上述检验列成方差分析表的形式 对于【例9.1】,我们已经进行了三元线性回归关系的显著性检验,且结果为极显著的。 现在对三个偏回归系数分别进行显著性检验。 首先计算 S23=√MS=√0.9004=0.9489 S=Sy2yG1=09489×√00187=0327 0.9489×√0001671=0038 Sb=Sn2yVc3=09489×√0089707=02842 然后计算各t统计量的值: =b/S4=0.1282/0327=3.921 2=b2/S2=0017/00388=1590 t2=b2/S2=-055502842=-1.951 由4+m1=50查t值表得1080=2008102678。因为A|>0 k2<1o0o0、1<1oso,所以偏回归系数b是极显著的,而偏回归系数b、b都是不 显著的。 F检验法: 首先计算各个偏回归平方和: SS=b2/l1=0.12822/00187=138460 SS=b2/2=006172/00061=2278 Ss=b3/e3=(-0555089707=34275 进而计算各个偏回归均方
169 可以证明: b i ii SS b c i 2 = (i=1、2、…、m) (9-16) 偏回归平方和可以衡量每个自变量在回归中所起作用的大小,或者说反映了每个自变量对依 变量的影响程度的大小。值得注意的是,在一般情况下, = m i R bi SS SS 1 这是因为 m 个自变量之间往往存在着不同程度的相关,使得各自变量对依变量的作用相互 影响。只有当 m 个自变量相互独立时,才有 = = m i R bi SS SS 1 偏回归平方和 bi SS 是去掉一个自变量使回归平方和减少的部分,也可理解为添入一个自 变量使回归平方和增加的部分,其自由度为 1,称为偏回归自由度,记为 bi df ,即 = 1 bi df 。 显然,偏回归均方 MSbi 为 b b b b i ii MS SS df SS b c i i i i 2 = = = (i=1、2、…、m) (9-17) 检验各偏回归系数显著性的 F 检验法应用下述 F 统计量: ,( 1, 1) Fb = MSb MSr df1 = df2 = n−m− i i (i=1、2、…、m) (9-18) 可以将上述检验列成方差分析表的形式。 对于【例 9.1】,我们已经进行了三元线性回归关系的显著性检验,且结果为极显著的。 现在对三个偏回归系数分别进行显著性检验。 t 检验法: 首先计算 0.9489 0.089707 0.2842 0.9489 0.001671 0.0388 0.9489 0.001187 0.0327 0.9004 0.9489 123 33 123 22 123 11 123 3 2 1 = = = = = = = = = = = = S S c S S c S S c S M S b y b y b y y r 然后计算各 t 统计量的值: 0.5545 0.2842 1.951 0.0617 0.0388 1.590 0.1282 0.0327 3.921 3 3 2 2 1 1 3 2 1 = = − = − = = = = = = b b b b b b t b S t b S t b S 由 df=n-m-1=50 查 t 值表得 t 0.05(50) = 2.008,t 0.01(50) = 2.678 。因为 1b t > 0.01(50) t 、 2 b t < 0.05(50) t 、 3 b t < 0.05(50) t ,所以偏回归系数 b1 是极显著的,而偏回归系数 b2、b3 都是不 显著的。 F 检验法: 首先计算各个偏回归平方和: ( 0.5545) 0.089707 3.4275 0.0617 0.001671 2.2782 0.1282 0.001187 13.8460 2 33 2 3 2 22 2 2 2 11 2 1 3 2 1 = = − = = = = = = = SS b c SS b c SS b c b b b 进而计算各个偏回归均方:
MSA=Ss/=138460 S=SS/1=2.278 MS 1=34275 最后计算各F的值 F=MSA/MS=138460904=15378 FB.=MS,/MS, /0.9004=2530 MS=34275/09004=3.807 由d=1,d=50查F值表得F01,50,=403,F0n(1,50)=717。因为F>F0,50),Fb< F00550),F2<F0s.50),因此偏回归系数bt极显著,而偏回归系数b、b均不显著。这 与t检验的结论是一致的 也可以把上述偏回归系数显著性检验的F检验结果列成方差分析表的形式 表9-2偏回归系数显著性检验方差分析表 异来源 d MS x1的偏回归 13.8460 13.8460 1537*容 x,的偏回归 2.2782 2.278 2.530 x3的偏回归 3.4275 3.4275 3.807 45.0184 0.9004 (三)自变量剔除与重新建立多元线性回归方程当对显著的多元线性回归方 程中各个偏回归系数进行显著性检验都为显著时,说明各个自变量对依变量的单纯影响都是 显著的。若有一个或几个偏回归系数经显著性检验为不显著时,说明其对应的自变量对依变 量的作用或影响不显著,或者说这些自变量在回归方程中是不重要的,此时应该从回归方程 中剔除一个不显著的偏回归系数对应的自变量,重新建立多元线性回归方程,再对新的多元 线性回归方程或多元线性回归关系以及各个新的偏回归系数进行显著性检验,直至多元线性 回归方程显著,并且各个偏回归系数都显著为止。此时的多元线性回归方程即为最优多元线 性回归方程( the best multiple linear regression equation) 1、自变量的剔除当经显著性检验有几个不显著的偏回归系数时,我们一次只能剔 除一个不显著的偏回归系数对应的自变量,被剔除的自变量的偏回归系数,应该是所有不显 著的偏回归系数中的F值(或丨t值、或偏回归平方和)为最小者。这是因为自变量之间 往往存在着相关性,当剔除某一个不显著的自变量之后,其对依变量的影响很大部分可以转 加到另外不显著的自变量对依变量的影响上。如果同时剔除两个以上不显著的自变量,那就 会比较多地减少回归平方和,从而影响利用回归方程进行估测的可靠程度。 2、重新进行少一个自变量的多元线性回归分析我们一次剔除一个不显著的偏 回归系数对应的自变量,不能简单地理解为只须把被剔除的自变量从多元线性回归方程中去 掉就行了,这是因为自变量间往往存在相关性,剔除一个自变量,其余自变量的偏回归系数 的数值将发生改变,回归方程的显著性检验、偏回归系数的显著性检验也都须重新进行,也 就是说应该重新进行少一个自变量的多元线性回归分析。 设依变量y与自变量x1、x2、…、xm的m元线性回归方程为 j=bo+6,x+b,x2+.+bmx 如果x,为被剔除的自变量,则m-1元线性回归方程为 y=b+bi b (9-19)
170 1 3.4275 1 2.2782 1 13.8460 3 3 2 2 1 1 = = = = = = b b b b b b MS SS MS SS MS SS 最后计算各 F 的值: 3.4275 0.9004 3.807 2.2782 0.9004 2.530 13.8460 0.9004 15.378 3 3 2 2 1 1 = = = = = = = = = b b r b b r b b r F MS MS F MS MS F MS MS 由 df1=1,df2=50 查 F 值表得 F0.05(1,50)=4.03, F0.01(1,50)=7.17。因为 1 Fb > F0.01(1,50), b2 F < F0.05(1,50), b3 F < F0.05(1,50), 因此偏回归系数 b1 极显著,而偏回归系数 b2、b3 均不显著。这 与 t 检验的结论是一致的。 也可以把上述偏回归系数显著性检验的 F 检验结果列成方差分析表的形式: 表 9-2 偏回归系数显著性检验方差分析表 变异来源 SS df MS F 1 x 的偏回归 13.8460 1 13.8460 15.378** 2 x 的偏回归 2.2782 1 2.2782 2.530 3 x 的偏回归 3.4275 1 3.4275 3.807 离 回 归 45.0184 50 0.9004 (三)自变量剔除与重新建立多元线性回归方程 当对显著的多元线性回归方 程中各个偏回归系数进行显著性检验都为显著时,说明各个自变量对依变量的单纯影响都是 显著的。若有一个或几个偏回归系数经显著性检验为不显著时,说明其对应的自变量对依变 量的作用或影响不显著,或者说这些自变量在回归方程中是不重要的,此时应该从回归方程 中剔除一个不显著的偏回归系数对应的自变量,重新建立多元线性回归方程,再对新的多元 线性回归方程或多元线性回归关系以及各个新的偏回归系数进行显著性检验,直至多元线性 回归方程显著,并且各个偏回归系数都显著为止。此时的多元线性回归方程即为最优多元线 性回归方程(the best multiple linear regression equation)。 1、自变量的剔除 当经显著性检验有几个不显著的偏回归系数时,我们一次只能剔 除一个不显著的偏回归系数对应的自变量,被剔除的自变量的偏回归系数,应该是所有不显 著的偏回归系数中的 F 值(或∣t∣值、或偏回归平方和)为最小者。这是因为自变量之间 往往存在着相关性,当剔除某一个不显著的自变量之后,其对依变量的影响很大部分可以转 加到另外不显著的自变量对依变量的影响上。如果同时剔除两个以上不显著的自变量,那就 会比较多地减少回归平方和,从而影响利用回归方程进行估测的可靠程度。 2、重新进行少一个自变量的多元线性回归分析 我们一次剔除一个不显著的偏 回归系数对应的自变量,不能简单地理解为只须把被剔除的自变量从多元线性回归方程中去 掉就行了,这是因为自变量间往往存在相关性,剔除一个自变量,其余自变量的偏回归系数 的数值将发生改变,回归方程的显著性检验、偏回归系数的显著性检验也都须重新进行,也 就是说应该重新进行少一个自变量的多元线性回归分析。 设依变量 y 与自变量 1 x 、 2 x 、…、 xm 的 m 元线性回归方程为: m m y = b + b x + b x ++ b x 0 1 1 2 2 ˆ 如果 i x 为被剔除的自变量,则 m-1 元线性回归方程为: i i i i m m y = b + b + + b x + b x + + b x ˆ 0 1 −1 −1 +1 +1 (9-19)
我们可以应用前面介绍过的m元线性回归方程的建立方法根据实际观测数据建立m-1 元线性回归方程,但是这需要重新进行大量的计算。下面介绍利用m元线性回归方程与m-1 元线性回归方程的对应偏回归系b与b的关系以及m元正规方程组系数矩阵逆矩阵C的 元素与m-1元正规方程组系数矩阵逆矩阵C’的元素之间的关系建立m-1元线性回归方程的 方法 设关于m-1元线性回归方程(9-19)中的偏回归系b、b i+1 b的 正规方程组系数矩陈的逆矩阵为C′,其各元素为 、-1、1、…、m,j≠i;k≠i) 可以证明 (9-20) 式中c、C八、ck、c均为m元正规方程组系数矩阵逆矩阵C的元素。这样我们就非常方 便地计算出新的m1阶逆矩阵C'的各元素,以进行m1元线性回归方程的偏回归系数b的 显著性检验 还可以证明,m-1元线性回归方程中的偏回归系数b与m元线性回归方程中偏回归系 数b之间有如下关系 b=b-·b(户=1、2、…、1-1、+1 (9-21) (9-21)式说明了可以利用原来的m元线性回归方程中的偏回归系数和m元正规方程组系 数矩阵的逆矩阵C的元素cn来计算剔除一个自变量之后新的m-1元线性回归方程中的各偏 回归系数。 而新的m-1元线性回归方程中常数项b由下式计算: b=j-bx1一…-bx-1-bx1+1-…-bmx (922) 于是我们利用(921)和(9-22)式可以方便地算出新的m-1元线性回归方程中的各个 偏回归系数及常数项,这样即建立了剔除一个自变量之后新的m-1元线性回归方程: j=b+b1x1+…+b1x1+b1x1+…+bmxm 在重新建立m-1元线性回归方程之后,仍然需要对m-1元线性回归关系和偏回归系数b 进行显著性检验,方法同前,但一些统计量需要重新进行计算。对于m-1元线性回归方程 (9-19) 回归平方和SSR=b1SBo+…+b-1SP-1o+bSP410+…+bSPn 回归自由度dfR=m-1 离回归平方和SS=SS,-SS 离回归自由度dn=n-m 对偏回归系数b进行显著性检验时 y12…4-1i+1…哪 MSr MS1为新的离回归均方 而新的偏回归平方和为:Ss5=b12/cn
171 我们可以应用前面介绍过的 m 元线性回归方程的建立方法根据实际观测数据建立 m-1 元线性回归方程,但是这需要重新进行大量的计算。下面介绍利用 m 元线性回归方程与 m-1 元线性回归方程的对应偏回归系 j b 与 j b 的关系以及 m 元正规方程组系数矩阵逆矩阵 C 的 元素与 m-1 元正规方程组系数矩阵逆矩阵 C 的元素之间的关系建立 m-1 元线性回归方程的 方法。 设关于 m-1 元线性回归方程(9-19)中的偏回归系 1 b、b2 、…、 −1 bi 、 +1 bi 、…、 bm 的 正规方程组系数矩陈的逆矩阵为 C ,其各元素为: jk c ( j、k =1、2、…、i-1、i+1、…、m; j i ; k i ) 可以证明: ii ji ki jk jk c c c c = c − (9-20) 式中 jk c 、 ji c 、 ki c 、 ii c 均为 m 元正规方程组系数矩阵逆矩阵 C 的元素。这样我们就非常方 便地计算出新的 m-1 阶逆矩阵 C 的各元素,以进行 m-1 元线性回归方程的偏回归系数 j b 的 显著性检验。 还可以证明,m-1 元线性回归方程中的偏回归系数 j b 与 m 元线性回归方程中偏回归系 数 bj 之间有如下关系: i ii ij j j b c c b = b − (j=1、2、…、 i −1、i +1 、…、m) (9-21) (9-21)式说明了可以利用原来的 m 元线性回归方程中的偏回归系数和 m 元正规方程组系 数矩阵的逆矩阵 C 的元素 ij c 来计算剔除一个自变量之后新的 m-1 元线性回归方程中的各偏 回归系数。 而新的 m-1 元线性回归方程中常数项 0 b 由下式计算: i i i i m m b = y − b x − − b x − b x − − b x 0 1 1 −1 −1 +1 +1 (9-22) 于是我们利用(9-21)和(9-22)式可以方便地算出新的 m-1 元线性回归方程中的各个 偏回归系数及常数项,这样即建立了剔除一个自变量之后新的 m-1 元线性回归方程: i i i i m m y = b + b x + + b x + b x + + b x ˆ 0 1 1 −1 −1 +1 +1 在重新建立m-1元线性回归方程之后,仍然需要对m-1元线性回归关系和偏回归系数 j b 进行显著性检验,方法同前,但一些统计量需要重新进行计算。对于 m-1 元线性回归方程 (9-19): 回归平方和 SSR b1SP10 bi 1SPi 1,0 bi 1SPi 1,0 bmSPm0 = + + + + + − − + + 回归自由度 df R = m −1 离回归平方和 SSr = SSy − SSR 离回归自由度 dfr = n − m 对偏回归系数 j b 进行显著性检验时: 12 1 1 r为新的离回归均方。 12 1 1 , MS / , n m MS S S S c t b S df n m r y i i m b y i i m jj b j b j j j − = = = = − − + − + 而新的偏回归平方和为: b j jj SS b c j = 2