1 / 30

Le mod

sandra_john
Download Presentation

Le mod

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


    1. Le modèle de la covariance (ou modèle à effets fixes) Rappel sur la régression partagée Opérateurs BETWEEN et WITHIN Spécification du modèle à effets individuels L’estimateur LSDV Tests Modèle avec effets temporels Modèle avec effets individuels et temporels

    3. Rappel sur la régression partagée (2) Alors on démontre (théorème Frisch-Waugh), à l’aide des équations normales, que : Remarque : est équivalent à l’estimateur des MCO sur le modèle transformé par M1 :

    4. Opérateurs between et within (1) Opérateur between : Soit : Opérateur : Lorsqu’il est appliqué à une variable, BN permet de calculer les moyennes par individu de cette variable. Cet opérateur est donc appelé « opérateur interindividuel » ou « opérateur between ».

    5. Opérateurs between et within (2) Opérateur within : Opérateur : Lorsqu’il est appliqué à une variable, WN permet de calculer les écarts de chaque observation aux moyennes individuelles. Cet opérateur est donc appelé « opérateur intraindividuel » ou « opérateur within ».

    6. Spécification du modèle à effets individuels (1) Pour chaque individu i et chaque période t : Pour chaque individu i : En regroupant tous les individus :

    7. Spécification du modèle à effets individuels (2) Pour compléter le modèle, on admet : La matrice des variables explicatives est de rang complet : Les erreurs :

    8. L’estimateur LSDV (1) Le modèle est un modèle de régression en forme partagée. On peut donc appliquer le théorème FW: Forme de l’estimateur de l’effet individuel : L’estimateur de l’effet individuel est donc égal à la moyenne des résidus du i ème groupe.

    9. L’estimateur LSDV (2) Les résultats s’obtiennent également en appliquant les MCO sur le modèle transformé par WN : Utilité pratique du modèle transformé : Le modèle « global » implique l’inversion d’une matrice (N + K, N + K) Le modèle transformé ne nécessite que l’inversion d’une matrice (K, K) Attention : la transformation n’est pas non-singulière, on perd N ddl (ddl = NT – N – K)

    10. Tests (1) : test d’égalité des coefficients individuels On veut savoir si les effets fixes sont différents d’une équation à l’autre : Procédure de test : Procédure de Chow Comparaison modèle contraint/modèle non-contraint Le modèle contraint est le modèle I (régression ordinaire).

    11. Tests (2) : Hétéroscédasticité et autocorrélation Hétéroscédasticité : Arellano (1987) a montré qu’on pouvait, de façon similaire à White (1980), estimer de façon robuste à une hétéroscédasticité de forme inconnue la variance de l’estimateur intra-individuel. On peut aussi effectuer les tests de White (1980) ou de Breusch-Pagan. Autocorrélation : S’il y a autocorrélation des erreurs : Une extension du test de Durbin-Watson a été proposée au cadre du modèle à effets fixes à partir des résidus estimés du modèle intra-individuel.

    12. Le modèle avec effets temporels (1) Pour chaque individu i et chaque période t : Pour chaque individu i : En regroupant tous les individus :

    13. Le modèle avec effets temporels (2) On définit les opérateurs inter- et intratemporels : L’estimateur LSDV de b est : Cet estimateur s’obtient comme l’estimateur des MCO sur le modèle transformé :

    14. Le modèle avec effets individuels et temporels (1) Il s’écrit : Cependant, les paramètres a et l ne sont pas tous identifiables car la matrice [D N D T] n’est pas de rang complet (multicolinéarité) Pour des raisons de symétrie, on propose : d’inclure N - 1 variables muettes individuelles d’inclure T – 1 variables muettes temporelles d’ajouter un terme constant global

    15. Le modèle avec effets individuels et temporels (2) Le modèle s’écrit alors : L’estimateur de g s’obtient comme l’estimateur des MCO sur le modèle transformé :

    16. Le modèle avec effets individuels et temporels (3) Différents tests possibles : Test joint sur les effets individuels et temporels : Test sur les effets individuels seulement : Test sur les effets temporels seulement :

    17. Le modèle à erreurs composées (ou modèle à effets aléatoires) Spécification du modèle avec effets individuels Décomposition spectrale de la matrice de variances-covariances Quelques estimateurs et leurs propriétés Tests de spécification Le modèle à effets individuels corrélés Le modèle avec effets individuels et temporels

    18. Spécification (1) Pour chaque individu i et chaque période t : u i = effet individuel rendant compte de l’influence sur y des variables non prises en compte, si elles sont stables dans le temps. W it = effet résiduel représentant l’influence des autres variables omises, variant selon les individus et variant dans le temps. Hypothèses :

    19. Spécification (2) Les propriétés suivantes sur les erreurs sont donc vérifiées : Interprétation : Autocorrélation temporelle «individu par individu», constante quel que soit le nombre de périodes séparant deux perturbations Pas de corrélations entre les individus

    20. Spécification (3) Si on empile les observations pour l’individu i :

    21. Spécification (4) Si on empile les N individus :

    22. Décomposition spectrale de la matrice des variances-covariances (1) On démontre que : V apparaît comme la combinaison linéaire des matrices between et within. Les quantités et sont les valeurs propres de cette matrice (resp. de multiplicité N et NT – N).

    23. Décomposition spectrale de la matrice des variances-covariances (2) Remarque 1 : il est facile de montrer que : Remarque 2 : soit Alors F est la matrice permettant d’effectuer une transformation qui ramène au MCO car :

    24. Quelques estimateurs (1) : l’estimateur des MCO Le modèle : L’estimateur des MCO : Estimateur centré, convergent en probabilité (pour N et T ?8) mais non efficient.

    25. Quelques estimateurs (2) : l’estimateur Between Il s’agit de l’estimateur des MCO appliqué au modèle sur les moyennes individuelles : Il correspond à l’estimateur appliqué au modèle transformé par B N :

    26. Quelques estimateurs (2) : l’estimateur Between Cette méthode n’utilise que la variance interindividuelle des individus privilégiant les différences permanentes entre individus. Estimateur sans biais et convergent (pour N et T ?8 ou N ?8 et T fixé).

    27. Quelques estimateurs (3) : l’estimateur Within Il s’agit de l’estimateur des MCO appliqué au modèle sur les moyennes individuelles : Il correspond à l’estimateur appliqué au modèle transformé par W N :

    28. Quelques estimateurs (2) : l’estimateur Within Cette méthode n’utilise que la variance intraindividuelle des individus, excluant toute variabilité attribuable aux différences permanentes entre individus. Estimateur sans biais et convergent (pour N et T ?8 ou N ?8 et T fixé). En outre, il est asymptotiquement efficient.

    29. Quelques estimateurs (4) : l’estimateur des MCG purs L’estimateur des MCG purs est défini par : Compte tenu de la définition de V, cet estimateur se réécrit comme :

    30. Quelques estimateurs (4) : l’estimateur des MCG purs Cet estimateur combine donc les variabilités inter- et intraindividuelles dans une proportion particulière. Il s’interprète ainsi comme la combinaison optimale des deux composantes. Il est l’équivalent à l’estimateur des MCO du modèle où les données sont transformées par F (transformation quasi-déviation à la moyenne). Cet estimateur est sans biais, convergent (pour N et T ?8 ou N ?8 et T fixé) et efficient.

    31. Quelques estimateurs (5) : l’estimateur des MCGR Comme la valeur de q est inconnue, il faut l’estimer de façon convergente. Swamy et Arora (1972) ont proposé d’utiliser les variances estimées des résidus des régressions intra- et interindividuelles. Un estimateur centré de est donné par : où sont les résidus de la régression intra.

    32. Quelques estimateurs (5) : l’estimateur des MCGR Un estimateur centré de est donné par : où sont les résidus de la régression inter. Un estimateur convergent de q se déduit de ces deux estimations : On applique enfin les MCG avec au lieu de q.

    33. Tests (1) : le test d’absence d’effets spécifiques individuels Le but est de tester : Test de Fisher ou du multiplicateur de Lagrange (à partir du modèle contraint estimé par les MCO), suivant asymptotiquement une loi du ?2 à 1 ddl. Honda (1985) a proposé une version unilatérale de ce test.

    34. Tests (2) : le test de Mundlak (1978) Selon Mundlak (1978), les effets spécifiques aléatoires ont de grandes chances d’être corrélés avec les variables explicatives = corrélation entre les caractéristiques inobservables des individus et les caractéristiques observables (régresseurs). Dans ce cas, il montre que seul l’estimateur within reste sans biais et convergent. Il en déduit également un test de corrélation entre les effets spécifiques et les variables explicatives.

    35. Tests (3) : Le test d’Hausman Principes généraux des tests d’Hausman : Ces tests reposent sur la différence entre : un estimateur convergent et efficace sous l’hypothèse nulle de bonne spécification mais non convergent sous l’hypothèse alternative et un estimateur convergent sous les deux hypothèses

    36. Tests (3) : Le test d’Hausman Application au modèle à erreurs composées : L’hypothèse nulle correspond au modèle à erreurs composées alors que l’hypothèse alternative correspond au modèle de Mundlak (où les effets spécifiques sont corrélés avec les variables explicatives) Dans ce cas, l’estimateur des MCG est convergent et efficace sous H 0 mais non convergent sous H a. Au contraire, l’estimateur within est convergent dans les deux cas.

    37. Tests (3) : Le test d’Hausman Le test repose alors sur la différence : La quantité : Remarque : on peut également tester l’exogénéité des effets spécifiques en comparant deux quelconque des estimateurs suivants :

    38. Le modèle à effets individuels corrélés Si la corrélation ne peut pas être rejetée, il faut considérer un « modèle à effets individuels corrélés » : estimateur within ou, estimateur MCO ou MCG sur le modèle en différences premières (pour éliminer l’effet individuel) ou, estimateurs des variables instrumentales

    39. Le modèle avec effets individuels et temporels (1) Pour chaque individu i et chaque période t : Hypothèses :

    40. Le modèle avec effets individuels et temporels (2) Les propriétés suivantes sur les erreurs sont donc vérifiées : Interprétation : Autocorrélation temporelle «individu par individu», constante quel que soit le nombre de périodes séparant deux perturbations Covariance contemporaine entre les individus

    41. Le modèle avec effets individuels et temporels (3) Si on empile les observations pour l’individu i :

    42. Le modèle avec effets individuels et temporels (4) Si on empile les N individus :

    43. Le modèle à coefficients aléatoires Spécification et hypothèses Procédures d’estimation Test de l’homogénéité des coefficients

    44. Spécification du modèle de Swamy (1) Soit le modèle : Les hypothèses : Sur les variables explicatives : on suppose Z i fixe, de rang complet K+1 Sur les erreurs :

    45. Spécification du modèle de Swamy (2) Sur les coefficients : on suppose les g i aléatoires g est la partie fixe et d i sont les effets individuels aléatoires. On admet que où ? est une matrice définie-positive. Le modèle de Swamy est donc un modèle de régression multiple avec perturbations autocorrélées et hétéroscédastiques.

    46. Spécification du modèle de Swamy (3) On empile le modèle pour un individu i donné : Soit : Alors :

    47. Spécification du modèle de Swamy (4) On empile le modèle pour tous les individus :

    48. Estimation (1) : les MCG purs Par définition : Cette expression peut se simplifier compte tenu de la formulation de V :

    49. Estimation (1) : les MCG purs Interprétation : il s’agit d’une moyenne pondérée matricielle des . La moyenne est pondérée en fonction inverse de la variance : les individus pour lesquels l’estimation est la plus précise pèsent plus dans l’estimation globale que les autres. Cependant, puisque C i n’est pas connue, cette méthode n’est pas applicable.

    50. Estimation (2) : les MCGR La matrice C i dépend de si2 et de ? qui sont en général inconnus. Pour si2, on utilise la somme des carrés des résidus des régressions individuelles. Pour ?, on utilise l’estimateur : On peut ensuite remplacer si2 et ? par leurs estimations dans V pour la 2ème étape des MCGR. On obtient un estimateur convergent et asymptotiquement efficace pour N ? 8 et T fixe.

    51. Test de l’homogénéité des coefficients On teste : Puisque l’hétérogénéité des coefficients induit une forme d’hétéroscédasticité, cette dernière peut être testée à l’aide de l’approche Breusch-Pagan.

More Related