二方法分类 线性 线性 多元 非线性 非线性
二 .方法分类 线性 线性 一元 多元 非线性 非线性
第二节一元线性回归预测 回归方程的建立 假定需预测的目标为y,与之对应的因素x,随 机抽样,子样数为n,通过图上打点作粗略估计已知 的一组对应数据,初步定为线性关系,同时再考虑到 随机因素,应有 yi=a+ b Xi+ei n 不考虑随机因素,应有 ∧ a+b 代(2)入(1),求得随机项 ei=y-y=y-(a+bx)(3)ei称为残 差
第二节 一元线性回归预测 一.回归方程的建立 假定需预测的目标为 y,与之对应的因素 x,随 机抽样,子样数为 n ,通过图上打点作粗略估计已知 的一组对应数据,初步定为线性关系,同时再考虑到 随机因素,应有: yi = a + b xi + ei i = 1,2,……n (1) 不考虑随机因素,应有: yi = a + b xi i = 1,2,n (2) 代(2)入(1),求得随机项 ei = yi – yi = yi – ( a + bxi ) (3) ei 称为残 差 ∧ ∧
这表示,真值与模拟直线4a+bx之间存 在实际误差ei,累积平方误差为Q=∑ei2称 残差平方和,又称剩余平方和。 反之,我们已知的是实际数据(ⅹ,yi), 从可能的无穷条模拟直线中选取某一条直线, 使之模拟得最好,标准为Q=∑e2,最小。 由(3)Q(ab)=∑e2=∑(y-a-bx 求极值点,应有:[Qa,b)]a=0 及[Q(ab)b=0
这表示,真值与模拟直线y = a + bx之间存 在实际误差 ei,累积平方误差为 Q = ∑ei 2 ,称 残差平方和,又称剩余平方和。 反之,我们已知的是实际数据(xi,yi), 从可能的无穷条模拟直线中选取某一条直线, 使之模拟得最好,标准为Q = ∑e 2 i最小。 由(3) Q(a,b)= ∑ei 2 = ∑(yi –a--bxi)2 求极值点,应有:[Q(a,b)]’a = 0 及 [Q(a,b)]’b = 0 ˆ y
得出(∑(yia-bxi)=0 ∑(yia-bxi)xi=0 求出ab ()∑y-b y-bx b=C∑ Xiyi-nxy)(∑x2nx2) 记∑(xx)2=1kx…x的离差平方和 ∑(X-X)(y-y)=lx….xy离差乘积和
得出 ∑(yi—a—bxi)= 0 ∑(yi—a—bxi)xi = 0 求出a,b a =(1/n) ∑yi - b = (∑xiyi—nxy)/(∑xi 2—nx2 ) 记 ∑(xi—x) 2= lxx……x的离差平方和 ∑(xi—x)(yi--y) = lxy……x,y离差乘积和 x y bx n b n i i = − =1 1 x y bx n b n i i = − =1 1
则b可简记为 b=lxy/lxx, a=y=(lxy/lxx)x a,b称回归系数 y=a+bx称线性回归方程。 这种方法称为最小二乘法,又叫最小 平方法OLS( Ordinary Least square)
则b可简记为 b = lxy/lxx , a = y– (lxy/lxx) x a,b称回归系数 y = a + bx 称线性回归方程。 这种方法称为最小二乘法,又叫最小 平方法OLS(Ordinary Least Square)