Estimateurs MCO en présence de l’autocorrélation des erreurs (support de cours) On suppose qu’on connaît les valeurs réelles des paramètres d’un modèle de régression simple donné par : Yt = α 0 + α 1 Xt + u t (1) où α0 = 5 et α1 = 0.7 On suppose que ut suit un processus AR(1). On a donc : ut = ρut−1 + t (2) où t satisfait toutes les hypothèses de MCO. On suppose également que t ∼ N (0, 1) On va considérer une autocorrélation positive avec ρ = 0.75. On crée tout d’abord une série t puis en utilisant Eq. (2) on obtient la série pour ut . 1 Le Tableau 1 présente ces séries. Tableau 1 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. +---------------------+ | epsilon u | |---------------------| | 1.435194 4.43519 | | -.5523433 2.77405 | | -.3915626 1.68898 | | .8068707 2.0736 | | 1.70123 3.25643 | |---------------------| | -.4839957 1.95833 | | 1.837664 3.30641 | | .7744436 3.25425 | | .4378094 2.8785 | | -1.30839 .850483 | +---------------------+ On obtient aussi la figure suivante pour ut . 1. Pour calculer ut pout t = 1 il faut donner une valeur initiale à cette série, on a donc mis u0 = 4. 1 Pour simplifier, supposer aussi que X=1,2,...,10. On utilise maintenant Eq. (1) avec les valeurs de ut que l’on vient d’obtenir (i.e. Y1t = 5 + 0.7Xt + ut ). Cette série va donc contenir un terme d’erreur qui est AR(1). Pour comparaison, on va également créer Y2t = 5 + 0.7Xt + t pour lequel le terme d’erreur n’est pas autorégressif (i.e. ρ = 0 et donc t = ut ). Les deux séries sont présentées dans le Tableau 2. Tableau 2 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. +------------------------+ | Y1 Y2 X | |------------------------| | 10.1352 7.13519 1 | | 9.17405 5.84766 2 | | 8.78898 6.70844 3 | | 9.8736 8.60687 4 | | 11.7564 10.2012 5 | |------------------------| | 11.1583 8.716 6 | | 13.2064 11.7377 7 | | 13.8543 11.3744 8 | | 14.1785 11.7378 9 | | 12.8505 10.6916 10 | +------------------------+ En utilisant les valeurs des séries dans le Tableau 2 on estime maintenant les deux modèles suivants : Y1t = α10 + α11 Xt + ut (3) Y2t = α20 + α21 Xt + t (4) Les résultats de ces ajustements sont présentés dans les Tableaux 3 et 4, respectivement. Tableau 3 Source | SS df MS -------------+-----------------------------Model | 26.887208 1 26.887208 Residual | 8.01527428 8 1.00190928 -------------+-----------------------------Total | 34.9024823 9 3.87805358 Number of obs F( 1, 8) Prob > F R-squared Adj R-squared Root MSE = = = = = = 10 26.84 0.0008 0.7704 0.7416 1.001 -----------------------------------------------------------------------------Y1 | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------X | .5708814 .1102014 5.18 0.001 .3167564 .8250063 _cons | 8.357776 .6837819 12.22 0.000 6.780972 9.934579 ------------------------------------------------------------------------------ 2 Tableau 4 Source | SS df MS -------------+-----------------------------Model | 33.0764707 1 33.0764707 Residual | 9.9975894 8 1.24969867 -------------+-----------------------------Total | 43.0740601 9 4.78600668 Number of obs F( 1, 8) Prob > F R-squared Adj R-squared Root MSE = = = = = = 10 26.47 0.0009 0.7679 0.7389 1.1179 -----------------------------------------------------------------------------Y2 | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------X | .6331879 .1230767 5.14 0.001 .3493726 .9170032 _cons | 5.793159 .7636706 7.59 0.000 4.032131 7.554186 ------------------------------------------------------------------------------ Les droites de régression pour ces deux ajustements sont données dans la figure suivante où on a également les valeurs de la population Yt = 5 + 0.7Xt . 3
© Copyright 2024