注意:广义差分法就是上述广义最小二乘法,但是却损失了部分样本观测值。如:一阶序列相关的情况下,广义差分是估计这相当于去掉第一行后左乘原模型Y=X?+?。即运用了GLS法,但第一次观测值被排除了。第95页,共174页,星期日,2025年,2月5日六、随机误差项相关系数的估计应用广义最小二乘法或广义差分法,必须已知随机误差项的相关系数?1,?2,…,?L。实际上,人们并不知道它们的具体数值,所以必须首先对它们进行估计。常用的估计方法有:科克伦-奥科特(Cochrane-Orcutt)迭代法。杜宾(durbin)两步法第96页,共174页,星期日,2025年,2月5日1.用DW统计量的值计算ρ由DW的证明,有:利用残差求出DW检验值,然后利用上式计算自相关系数ρ的估计值.第97页,共174页,星期日,2025年,2月5日2.科克伦-奥科特迭代法。以一元线性模型为例:首先,采用OLS法估计原模型Yi=?0+?1Xi+ui得到的u的“近似估计值”,并以之作为观测值使用OLS法估计下式第98页,共174页,星期日,2025年,2月5日求出ui新的“近拟估计值”,并以之作为样本观测值,再次估计第99页,共174页,星期日,2025年,2月5日类似地,可进行第三次、第四次迭代。关于迭代的次数,可根据具体的问题来定。一般是事先给出一个精度,当相邻两次?1,?2,?,?L的估计值之差小于这一精度时,迭代终止。实践中,有时只要迭代两次,就可得到较满意的结果。两次迭代过程也被称为科克伦-奥科特两步法。第100页,共174页,星期日,2025年,2月5日3.杜宾(durbin)两步法该方法仍是先估计?1,?2,?,?l,再对差分模型进行估计第一步,变换差分模型为下列形式进行OLS估计,得各Yj(j=i-1,i-2,…,i-l)前的系数?1,?2,?,?l的估计值第101页,共174页,星期日,2025年,2月5日第102页,共174页,星期日,2025年,2月5日应用软件中的广义差分法在Eview/TSP软件包下,广义差分采用了科克伦-奥科特(Cochrane-Orcutt)迭代法估计?。在解释变量中引入AR(1)、AR(2)、…,即可得到参数和ρ1、ρ2、…的估计值。其中AR(m)表示随机误差项的m阶自回归。在估计过程中自动完成了ρ1、ρ2、…的迭代。第103页,共174页,星期日,2025年,2月5日第104页,共174页,星期日,2025年,2月5日如果能够找到一种方法,求得Ω或各序列相关系数?j的估计量,使得GLS能够实现,则称为可行的广义最小二乘法(FGLS,FeasibleGeneralizedLeastSquares)。FGLS估计量,也称为可行的广义最小二乘估计量(feasiblegeneralleastsquaresestimators)可行的广义最小二乘估计量不再是无偏的,但却是一致的,而且在科克伦-奥科特迭代法下,估计量也具有渐近有效性。前面提出的方法,就是FGLS注意:第105页,共174页,星期日,2025年,2月5日案例:人均消费与人均可支配收入第106页,共174页,星期日,2025年,2月5日第107页,共174页,星期日,2025年,2月5日第108页,共174页,星期日,2025年,2月5日.K=1n=23α=0.05dl=1.26du=1.44第109页,共174页,星期日,2025年,2月5日第110页,共174页,星期日,2025年,2月5日第111页,共174页,星期日,2025年,2月5日第112页,共174页,星期日,2025年,2月5日第113页,共174页,星期日,2025年,2月5日第114页,共174页,星期日,2025年,2月5日第115页,共174页,星期日,2025年,2月5日.第116页,共174页,星期日,2025年,2月5日第三节多重共线性Multi-Collinearity第117页,共174页,星期日,2025年,2月5日一、多重共线性的概念二、多重共线性的来源与后果三、多重共线性的检验四、克服多重共线性的方法五、案例内容第118页,共174页,星期日,2025年,2月5日一、多重共线性的概念