• Aide
  • Eurêkoi Eurêkoi

Livre

Économétrie : modélisation et inférence

Résumé

Expose les principes statistiques de base, fait l'inventaire de toute une gamme de modèles économétriques et fournit les fondements nécessaires pour adapter et développer ces modèles. Couvre un large panorama des méthodes économétriques classiques associées à la régression linéaire, aux méthodes de séries temporelles et de coupes transversales semi-paramétriques les plus modernes.


  • Autre(s) auteur(s)
  • Éditeur(s)
  • Date
    • 2004
  • Notes
    • Bibliogr. p. 479-496. Index
  • Langues
    • Français
  • Description matérielle
    • 506 p. ; 25 cm
  • Sujet(s)
  • ISBN
    • 2-200-26719-3
  • Indice
    • 330.14 Analyse économique, méthodes statistiques et économétriques
  • Quatrième de couverture
    • La première partie de cet ouvrage présente un panorama statistique des méthodes générales, qu'il s'agisse des modèles économétriques statiques ou dynamiques, de la statistique paramétrique usuelle ou des tests. Le point de vue choisi, dominant maintenant en économétrie, est celui de la Méthode des Moments Généralisée. Ce panorama est complété par les méthodes non paramétriques et les méthodes de simulation.

      Les deux parties suivantes considèrent des classes de modèles. La deuxième étudie des modèles statistiques adaptés aux observations des modèles microéconomiques; elle est consacrée à l'étude de l'espérance conditionnelle et à l'estimation par moindres carrés ordinaires et généralisés. Viennent ensuite la régression non paramétrique et enfin le cas de données partiellement observées, d'un point de vue paramétrique ou non paramétrique.

      La troisième partie traite des modèles dynamiques, adaptés aux applications macroéconomiques ou financières, qu'il s'agisse des modèles linéaires stationnaires, univariés ou multivariés, des problèmes de non stationnarité et de cointégration, des modèles de la variance conditionnelle ou des modèles non linéaires dynamiques.

      Enfin, la quatrième partie relève le difficile défi de synthétiser un ensemble de problèmes spécifiques à la démarche statistique en économétrie structurelle, ceux de l'identification et de la suridentification, de la simultanéité et de l'inobservabilité.

      Cet ouvrage offre ainsi un panorama étendu de la méthodologie économétrique. Il répond au besoin rencontré par les étudiants avancés, les chercheurs et enseignants-chercheurs et par les professionnels de l'économie, celui d'avoir une vue unifiée et générale en langue française de l'économétrie moderne.


  • Tables des matières
      • Économétrie

      • Modélisation et inférence

      • Jean-Pierre Florens

      • Vêlayoudom Marimoutou

      • Anne Péguin-Feissolle

      • Armand Colin

      • Préface
        7
      • Avant-propos
        9
      • I Méthodes statistiques
        13
      • 1 Modèles statistiques 15
      • 1.1 Introduction15
      • 1.2 Échantillon, paramètres et probabilités d'échantillonnage15
      • 1.3 Modèles indépendamment identiquement distribués18
      • 1.4 Modèles dominés, fonction de vraisemblance20
      • 1.5 Modèles marginaux et conditionnels
        22
      • 2 Modèles séquentiels et asymptotiques 29
      • 2.1 Introduction29
      • 2.2 Modèles statistiques séquentiels et asymptotiques29
      • 2.3 Convergences en probabilité et presque sûre - Lois des grands nombres33
      • 2.4 Convergence en distribution et théorème de limite centrale36
      • 2.5 Non causalité et exogénéité dans les modèles dynamiques39
      • 2.5.1 Causalité au sens de Wiener Granger39
      • 2.5.2 Exogénéité
        41
      • 3 Estimation par maximisation et par la méthode des moments 45
      • 3.1 Introduction45
      • 3.2 Estimation46
      • 3.3 Conditions de moments et de maximisation51
      • 3.4 Estimation par les méthodes des moments et des moments généralisés56
      • 3.5 Propriétés asymptotiques des estimateurs
        59
      • 4 Tests asymptotiques 73
      • 4.1 Introduction73
      • 4.2 Tests et tests asymptotiques74
      • 4.3 Tests de Wald77
      • 4.4 Test de Rao81
      • 4.5 Tests de comparaison des minima84
      • 4.6 Test dans le cadre d'une estimation par maximum de vraisemblance87
      • 4.7 Tests d'Hausman90
      • 4.8 Tests d'enveloppement
        93
      • 5 Méthodes non paramétriques 99
      • 5.1 Introduction99
      • 5.2 Loi et fonction de distribution empirique100
      • 5.3 Estimation de la densité102
      • 5.3.1 Construction de l'estimateur de la densité par la méthode du noyau103
      • 5.3.2 Propriété de petit échantillon de l'estimation par noyau et choix du noyau et de la fenêtre105
      • 5.3.3 Propriétés asymptotiques107
      • 5.4 Méthodes semiparamétriques
        109
      • 6 Méthodes de simulation 115
      • 6.1 Introduction115
      • 6.2 Génération de nombres aléatoires115
      • 6.2.1 Inversion de la fonction de distribution116
      • 6.2.2 Méthode du rejet117
      • 6.2.3 Génération de vecteurs aléatoires118
      • 6.3 Utilisation dans les procédures de calcul119
      • 6.3.1 Intégration par Monte Carlo119
      • 6.3.2 Estimation par la méthode des moments et simulation121
      • 6.4 Simulations et propriétés de petit échantillon des estimateurs et des tests127
      • 6.5 Bootstrap et distribution des estimateurs de moments et de la densité
        132
      • II Modèles de régression
        139
      • 7 Espérance conditionnelle 141
      • 7.1 Introduction141
      • 7.2 Espérance conditionnelle142
      • 7.3 Espérance conditionnelle linéaire
        146
      • 8 Régression unidimensionnelle 153
      • 8.1 Introduction153
      • 8.2 Régression linéaire154
      • 8.2.1 Les hypothèses du modèle de régression linéaire154
      • 8.2.2 Estimation par la méthode des moindres carrés ordinaires156
      • 8.2.3 Propriétés de petit échantillon160
      • 8.2.4 Loi en échantillon fini sous l'hypothèse de normalité162
      • 8.2.5 Analyse de la variance168
      • 8.2.6 Prévision170
      • 8.2.7 Propriétés asymptotiques172
      • 8.3 Régression non linéaire paramétrique176
      • 8.4 Mauvaise spécification en régression180
      • 8.4.1 Propriétés des estimateurs des moindres carrés181
      • 8.4.2 Comparaison de l'approximation et de la vraie régression183
      • 8.4.3 Tests de bonne spécification
        185
      • 9 Méthode des moindres carrés généralisés, hétéroscédasticité et régression multivariée 189
      • 9.1 Introduction189
      • 9.2 Une extension de la méthode des moments191
      • 9.3 Hétéroscédasticité195
      • 9.3.1 Estimation195
      • 9.3.2 Tests d'homoscédasticité206
      • 9.4 Régression multivariée
        209
      • 10 Estimation non paramétrique de la régression 223
      • 10.1 Introduction223
      • 10.2 Estimation de la fonction de régression par la méthode du noyau224
      • 10.2.1 Calcul de l'erreur quadratique moyenne asymptotique226
      • 10.2.2 Convergence de l'Amise230
      • 10.2.3 Normalité asymptotique231
      • 10.3 Estimation d'une transformation de la fonction de régression233
      • 10.4 Restrictions sur la fonction de régression237
      • 10.4.1 Modèles à index237
      • 10.4.2 Modèles additifs
        240
      • 11 Variables discrètes et modèles partiellement observés 243
      • 11.1 Introduction243
      • 11.2 Différents types de modèles244
      • 11.2.1 Les modèles dichotomiques244
      • 11.2.2 Les modèles à choix multiples246
      • 11.2.3 Les modèles censurés248
      • 11.2.4 Les modèles de déséquilibre252
      • 11.2.5 Les modèles à sélection d'échantillon253
      • 11.3 Estimation256
      • 11.3.1 Estimation non paramétrique256
      • 11.3.2 Estimation semi paramétrique par maximum de vraisemblance258
      • 11.3.3 Estimation par maximum de vraisemblance
        259
      • III Modèles dynamiques
        265
      • 12 Modèles dynamiques stationnaires 267
      • 12.1 Introduction267
      • 12.2 Processus de second ordre268
      • 12.3 Les systèmes gaussiens270
      • 12.4 Représentation spectrale et fonction génératrice d'autocovariance270
      • 12.5 Estimation, prédiction et filtre273
      • 12.5.1 Filtre273
      • 12.5.2 Prédiction linéaire. Remarques générales276
      • 12.5.3 La décomposition de Wold278
      • 12.6 Processus ARMA stationnaires280
      • 12.6.1 Introduction280
      • 12.6.2 Processus ARMA inversible280
      • 12.6.3 Calcul de la fonction de covariance d'un processus ARMA(p, q)283
      • 12.6.4 La fonction génératrice d'autocovariance285
      • 12.6.5 La fonction d'autocorrélation partielle286
      • 12.7 Représentation spectrale d'un processus ARMA(p, q)288
      • 12.8 Estimation des modèles ARMA289
      • 12.8.1 Estimation par la méthode de Yule Walker289
      • 12.8.2 Méthode de Box-Jenkins292
      • 12.9 Processus multivariés294
      • 12.9.1 Quelques définitions et généralités295
      • 12.9.2 Représentations univariées sous-jacentes à un processus multivarié297
      • 12.9.3 Fonction de covariance299
      • 12.10 Interprétation du modèle VAR(p) sous sa forme MA(infini)299
      • 12.10.1 Propagation d'un choc sur une composante299
      • 12.10.2 Décomposition de la variance de l'erreur de prévision300
      • 12.11 Estimation des modèles VAR(p)301
      • 12.11.1 Estimateur du maximum de vraisemblance de Pi303
      • 12.11.2 Estimateur du maximum de vraisemblance de Omega305
      • 12.11.3 Distribution asymptotique de Pi et de Omega
        306
      • 13 Processus non stationnaires et cointégration 309
      • 13.1 Introduction309
      • 13.2 Propriétés asymptotiques des estimateurs des moindres carrés des processus I (1)311
      • 13.3 Analyse de la cointégration et mécanisme à correction d'erreur328
      • 13.3.1 Cointégration et représentation MA329
      • 13.3.2 Cointégration dans un modèle VAR en niveau330
      • 13.3.3 Représentation triangulaire332
      • 13.3.4 Estimation d'un vecteur de cointégration333
      • 13.3.5 Estimation par maximum de vraisemblance d'un modèle à correction d'erreur admettant une relation de cointégration338
      • 13.3.6 Test de cointégration construit sur les corrélations canoniques: le test de Johansen
        341
      • 14 Modèles de la variance conditionnelle 345
      • 14.1 Introduction345
      • 14.2 Différents types de modèles ARCH345
      • 14.3 Méthode d'estimation350
      • 14.4 Applications de la procédure de Rao361
      • 14.5 Quelques particularités des modèles de type ARCH364
      • 14.5.1 Stationnarité364
      • 14.5.2 Aspects leptokurtiques des séries financières366
      • 14.5.3 Différentes distributions conditionnelles
        367
      • 15 Les modèles dynamiques non linéaires 371
      • 15.1 Introduction371
      • 15.2 Cas où l'espérance conditionnelle est continûment différentiable372
      • 15.2.1 Définitions372
      • 15.2.2 Moments conditionnels et moments marginaux dans le cas homoscédastique: instruments optimaux373
      • 15.2.3 Hétéroscédasticité377
      • 15.2.4 Modification de l'ensemble des variables conditionnelles: estimation avec filtrage de la variance asymptotique378
      • 15.3 Cas où l'espérance conditionnelle n'est pas continûment différentiable: les modèles de rupture381
      • 15.3.1 Présentation de quelques exemples382
      • 15.3.2 Problèmes d'estimation384
      • 15.4 Test de linéarité388
      • 15.4.1 Tous les paramètres sont identifiés sous Ho388
      • 15.4.2 Problème de la non-identification de certains paramètres sous Ho
        392
      • IV Modélisation structurelle
        397
      • 16 Identification et suridentification dans une modélisation structurelle 399
      • 16.1 Introduction399
      • 16.2 Modèle structurel et forme réduite400
      • 16.3 Identification: l'exemple des équations simultanées403
      • 16.3.1 Définitions générales403
      • 16.3.2 Modèles à équations simultanées linéaires i.i.d.406
      • 16.3.3 Modèles à équations simultanées linéaires dynamiques411
      • 16.4 Modèles issus de la théorie des jeux414
      • 16.5 Suridentification417
      • 16.5.1 Suridentification dans les modèles à équations simultanées420
      • 16.5.2 Suridentification et conditions de moments421
      • 16.5.3 Suridentification et modèles non paramétriques422
      • 17 Simultanéité 425
      • 17.1 Introduction425
      • 17.2 Simultanéité et équations simultanées426
      • 17.3 Endogénéité, exogénéité et modèles dynamiques429
      • 17.4 Simultanéité et biais de sélection432
      • 17.5 Estimation par variables instrumentales435
      • 17.5.1 Introduction435
      • 17.5.2 Estimation437
      • 17.5.3 Instruments optimaux440
      • 17.5.4 Approche non paramétrique et variables endogènes441
      • 17.5.5 Test d'exogénéité
        444
      • 18 Modèles à variables inobservables 449
      • 18.1 Introduction449
      • 18.2 Exemples de modèles avec variables inobservables451
      • 18.2.1 Modèles à erreurs composées et modèles à coefficients aléatoires451
      • 18.2.2 Modèles de durée avec composante d'hétérogénéité non observée453
      • 18.2.3 Modèles à erreurs sur les variables456
      • 18.2.4 Modèles markoviens partiellement observés et modèles à espace d'état457
      • 18.3 Comparaison entre le modèle structurel et la forme réduite459
      • 18.3.1 Modèles de durée avec hétérogénéité et dépendance artificielle avec la durée460
      • 18.3.2 Modèle à erreurs sur les variables et transformation des coefficients de régression linéaire462
      • 18.3.3 Modèles markoviens avec variables inobservables et dynamique artificielle du modèle462
      • 18.4 Problèmes d'identification463
      • 18.5 Estimation des modèles à variables inobservables465
      • 18.5.1 Estimation par une statistique ne dépendant pas des inobservables465
      • 18.5.2 Estimation par maximum de vraisemblance: en algorithme et filtre de Kalman466
      • 18.5.3 Estimation par moments intégrés471
      • 18.6 Modèles avec contrefactuels
        472
      • Bibliographie 479
      • Index 497

  • Origine de la notice:
    • Electre
  • Disponible - 330.14 FLO

    Niveau 3 - Economie