• Aide
  • Eurêkoi Eurêkoi

Livre

Probabilités et statistique inférentielle : prélude à l'économétrie

Résumé

Destiné aux étudiants de licence en économie, en finance et en gestion, cet ouvrage présente les probabilités et la statistique sous l'angle de l'étude postérieure de l'économétrie. ©Electre 2016


  • Éditeur(s)
  • Date
    • cop. 2016
  • Notes
    • Index
  • Langues
    • Français
  • Description matérielle
    • 1 vol. (599 p.) : ill. ; 24 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 978-2-340-01001-7
  • Indice
    • 330.14(07) Analyse économique, méthodes statistiques et économétriques. Manuels
  • Quatrième de couverture
    • L'ouvrage commence par introduire la notion d'expérience aléatoire, dont la modélisation permet de développer les concepts de la théorie des probabilités : mesures de probabilité, variables aléatoires discrètes et absolument continues, vecteur aléatoire, lois de probabilités, convergences, théorèmes-limite, sans oublier les techniques de simulation. La partie du livre consacrée à la statistique aborde les différentes méthodes d'estimation, en insistant particulièrement sur le maximum de vraisemblance. La théorie des tests est aussi étudiée avec toute la généralité voulue.

      La progression dans la matière se réalise pas à pas, sur un mode formel certes, mais in fine pédagogique. À cet égard, il n'y a pas de grand prérequis mathématique, si ce n'est une accointance avec le calcul infinitésimal. Les notions plus avancées sont systématiquement expliquées, tandis qu'un appendice regroupe tous les résultats d'algèbre matricielle utilisés dans l'ouvrage. De nombreux exemples permettent d'illustrer et d'assimiler au mieux les passages les moins aisés.

      Le livre comporte nombre d'innovations, mais sa principale originalité consiste en une présentation unifiée et progressive des probabilités et de la statistique sous l'angle de l'étude postérieure de l'économétrie.

      Comme tel, il est donc destiné à des étudiants d'économie, de finance et de gestion, de la licence 2 jusqu'au master 2. Il peut servir de support à des cours de probabilités, statistique inférentielle ou d'introduction à l'économétrie et à la finance quantitative.


  • Tables des matières
      • Probabilités et statistique inférentielle

      • Prélude à l'économétrie

      • Francis Bismans

      • Ellipses

      • Chapitre 1 : Notions de probabilité
      • 1.1 Introduction19
      • 1.2 Des ensembles aux probabilités20
      • 1.2.1 Une expérience aléatoire20
      • 1.2.2 Le modèle de Kolmogorov22
      • 1.2.3 Construction d'une mesure de probabilité sur Omega fini34
      • 1.3 Propriétés des mesures de probabilité35
      • 1.3.1 Un peu d'axiomatique35
      • 1.3.2 La formule de Poincaré38
      • 1.4 Probabilité conditionnelle et indépendance42
      • 1.4.1 Étude d'un exemple42
      • 1.4.2 Définition et formule des probabilités composées45
      • 1.4.3 Indépendance en probabilité47
      • 1.4.4 Généralisation de l'indépendance en probabilité49
      • 1.5 Le théorème du révérend Thomas Bayes51
      • 1.5.1 Théorème des probabilités totales51
      • 1.5.2 Théorème de Bayes53
      • 1.5.3 Logique de la formule de Bayes54
      • 1.5.4 Du bon usage du théorème de Bayes55
      • 1.6 Calculs et dénombrements56
      • 1.6.1 L'hypothèse d'équiprobabilité56
      • 1.6.2 Tirage avec remise58
      • 1.6.3 Tirage sans remise et combinatoire58
      • 1.6.4 Développement binomial61
      • 1.7 Variables aléatoires finies63
      • 1.7.1 Généralités63
      • 1.7.2 Fonctions associées à une variable aléatoire finie66
      • 1.8 Exercices69
      • Chapitre 2 : Variables aléatoires
      • 2.1 Espaces de probabilité dénombrables73
      • 2.1.1 Tribus d'événements73
      • 2.1.2 Mesures de probabilité75
      • 2.1.3 Continuité des mesures de probabilité77
      • 2.2 Espaces de probabilité infinis continus80
      • 2.2.1 Une approche intuitive80
      • 2.2.2 Tribus engendrées82
      • 2.2.3 Tribu des boréliens et prolongement des mesures de probabilité83
      • 2.2.4 Retour sur l'exemple de la ficelle85
      • 2.3 Le concept général de variable aléatoire86
      • 2.3.1 La question et le problème86
      • 2.3.2 Variables aléatoires et loi de probabilité88
      • 2.3.3 Fonctions de répartition91
      • 2.3.4 Types de variables aléatoires93
      • 2.4 Lois de probabilité discrètes98
      • 2.4.1 La loi de Bernoulli98
      • 2.4.2 La loi binomiale99
      • 2.4.3 La loi de Poisson100
      • 2.4.4 De la loi uniforme discrète à l'uniforme absolument continue103
      • 2.5 La loi normale ou gaussienne104
      • 2.5.1 La densité gaussienne104
      • 2.5.2 Préalables mathématiques106
      • 2.5.3 Intégrale de Gauss108
      • 2.5.4 La loi de Cauchy et sa relation à la loi normale110
      • 2.6 La loi Gamma et ses formes particulières111
      • 2.6.1 La fonction gamma111
      • 2.6.2 La loi et la densité gamma113
      • 2.6.3 La loi exponentielle114
      • 2.6.4 La loi du Khi-deux115
      • 2.7 Moments et caractéristiques d'une variable aléatoire116
      • 2.7.1 Espérance mathématique d'une variable aléatoire discrète finie116
      • 2.7.2 Généralisation aux variables aléatoires quelconques118
      • 2.7.3 Propriétés de l'espérance mathématique120
      • 2.7.4 La variance121
      • 2.7.5 Moments initiaux et centrés123
      • 2.7.6 Mode, médiane et quantiles125
      • 2.8 Fonctions caractéristiques127
      • 2.8.1 La fonction caractéristique et ses propriétés de base127
      • 2.8.2 Quelques exemples de fonctions caractéristiques129
      • 2.9 Calcul des moments à partir de la fonction caractéristique133
      • 2.9.1 Quelques propositions mathématiques133
      • 2.9.2 Moments et fonctions caractéristiques136
      • 2.9.3 Quelques exemples de calcul des moments140
      • 2.10 Exercices143
      • Annexe : l'exponentielle complexe152
      • Chapitre 3 : Fonctions de variables aléatoires et vecteurs aléatoires
      • 3.1 Fonctions d'une variable aléatoire155
      • 3.1.1 Première approche155
      • 3.1.2 Variables aléatoires discrètes156
      • 3.1.3 Le cas absolument continu157
      • 3.1.4 Espérance d'une fonction d'une variable aléatoire162
      • 3.2 Couples aléatoires165
      • 3.2.1 Fonctions de répartition conjointes et marginales165
      • 3.2.2 Couples discrets et fonctions de masse de probabilité conjointes169
      • 3.2.3 Couples absolument continus et densités conjointes171
      • 3.3 Lois de probabilité conditionnelles174
      • 3.3.1 Un exemple introductif174
      • 3.3.2 Conditionnement par rapport à des variables aléatoires177
      • 3.3.3 Espérance conditionnelle181
      • 3.3.4 Variance conditionnelle184
      • 3.4 Indépendance et couples aléatoires186
      • 3.4.1 Définitions et résultats186
      • 3.4.2 Produit de convolution190
      • 3.5 Espérance de fonctions d'un couple aléatoire192
      • 3.5.1 Fonctions d'un couple aléatoire192
      • 3.5.2 Somme de variables aléatoires195
      • 3.6 Covariance et corrélation197
      • 3.6.1 Covariance et variance197
      • 3.6.2 Coefficient de corrélation199
      • 3.7 Fonctions vectorielles de couples aléatoires200
      • 3.7.1 La méthode du jacobien201
      • 3.7.2 Deux illustrations de la méthode203
      • 3.8 Vecteurs aléatoires206
      • 3.8.1 Extensions et généralisations206
      • 3.8.2 Moments des variables multidimensionnelles210
      • 3.9 Exercices214
      • Chapitre 4 : Lois de probabilité
      • 4.1 À nouveau sur la fonction caractéristique223
      • 4.1.1 Unicité des fonctions caractéristiques223
      • 4.1.2 Variables indépendantes et fonctions caractéristiques225
      • 4.2 Principales distributions discrètes227
      • 4.2.1 La loi de Poisson227
      • 4.2.2 Les lois géométrique et hypergéométrique234
      • 4.2.3 Lois binomiales237
      • 4.2.4 La loi multinomiale242
      • 4.3 Lois normales246
      • 4.3.1 La loi gaussienne : une synthèse246
      • 4.3.2 La loi normale centrée réduite248
      • 4.3.3 Symétrie et aplatissement de la densité normale251
      • 4.3.4 Utilisation des tables de la loi253
      • 4.3.5 Somme de variables aléatoires normales255
      • 4.3.6 La loi lognormale256
      • 4.4 Distributions dérivées de la loi normale259
      • 4.4.1 Densité et fonction caractéristique de259
      • 4.4.2 La loi du Khi-deux261
      • 4.4.3 La loi de Student264
      • 4.4.4 Utilisation des tables statistiques267
      • 4.5 Loi bêta et distribution de Fisher-Snedecor270
      • 4.5.1 Fonctions bêta270
      • 4.5.2 Lois bêta271
      • 4.5.3 La distribution de Fisher273
      • 4.5.4 Lecture des tables de la distribution F276
      • 4.6 Une loi conjointe : la loi normale bidimensionnelle278
      • 4.6.1 Définition et développements278
      • 4.6.2 Détermination des lois marginales280
      • 4.6.3 Lois normales conditionnelles281
      • 4.6.4 Normalité et corrélation283
      • 4.7 La loi normale multidimensionnelle284
      • 4.7.1 La densité multinormale284
      • 4.7.2 Propriétés de la loi multinormale288
      • 4.7.3 Lois marginales et conditionnelles291
      • 4.7.4 Formes quadratiques en des variables multinormales293
      • 4.8 Exercices300
      • Chapitre 5 : Convergences et échantillonnage
      • 5.1 Convergences en probabilité et en loi309
      • 5.1.1 Convergence en probabilité309
      • 5.1.2 Propriétés des limites en probabilité311
      • 5.1.3 La convergence en loi313
      • 5.1.4 Convergences en loi parmi les variables discrètes317
      • 5.1.5 Calculs d'approximations320
      • 5.2 Les lois des grands nombres321
      • 5.2.1 Inégalités de Markov et de Bienaymé-Tchebychev322
      • 5.2.2 La loi faible des grands nombres323
      • 5.2.3 Loi forte et convergence presque sûre326
      • 5.3 Le théorème de la limite centrée330
      • 5.3.1 Une première approche informelle331
      • 5.3.2 Le théorème classique332
      • 5.3.3 Quelques illustrations de l'utilisation du TLC337
      • 5.3.4 Extensions du TLC classique340
      • 5.3.5 Une version multivariée du TLC classique344
      • 5.4 Processus aléatoires et théorèmes-limite346
      • 5.4.1 Processus stochastiques346
      • 5.4.2 Mouvement brownien et marche aléatoire349
      • 5.4.3 Le théorème de la fonctionnelle limite centrée354
      • 5.4.4 Un théorème-limite pour les martingales356
      • 5.5 Populations et échantillons statistiques360
      • 5.5.1 Le concept de population360
      • 5.5.2 Types d'échantillons361
      • 5.5.3 Statistiques d'échantillonnage364
      • 5.6 Lois empiriques et échantillons gaussiens365
      • 5.6.1 Distributions d'échantillonnage365
      • 5.6.2 Loi de la moyenne empirique367
      • 5.6.3 Loi de la variance empirique368
      • 5.7 Échantillons et simulations371
      • 5.7.1 Introduction371
      • 5.7.2 Illustration des méthodes de Monte-Carlo373
      • 5.7.3 Génération de nombres aléatoires374
      • 5.8 Exemples de simulations377
      • 5.8.1 Variables aléatoires absolument continues378
      • 5.8.2 La méthode de Box-Muller383
      • 5.8.3 Variables aléatoires discrètes385
      • 5.8.4 Estimation d'un paramètre par simulation386
      • 5.8.5 Générer des trajectoires browniennes388
      • 5.9 Exercices390
      • Chapitre 6 : Introduction à l'inférence statistique
      • 6.1 Moindres carrés et moments400
      • 6.1.1 Le principe des moindres carrés400
      • 6.1.2 La régression simple401
      • 6.1.3 Généralisation à la régression multiple405
      • 6.1.4 La méthode des moments (M.M.)407
      • 6.2 Estimation par maximum de vraisemblance409
      • 6.2.1 Le principe du maximum de vraisemblance409
      • 6.2.2 Recherche des estimateurs du maximum de vraisemblance411
      • 6.2.3 Application à la régression simple414
      • 6.3 Autres méthodes d'estimation416
      • 6.3.1 Variables instrumentales416
      • 6.3.2 La méthode des moments généralisée : un aperçu418
      • 6.3.3 Le «bouttestrappage»420
      • 6.4 Critères de sélection des estimateurs423
      • 6.4.1 L'erreur quadratique moyenne423
      • 6.4.2 Le critère de la variance minimale426
      • 6.4.3 Propriétés asymptotiques434
      • 6.5 Exhaustivité et efficacité436
      • 6.5.1 Notion d'exhaustivité436
      • 6.5.2 Les théorèmes de Rao-Blackwell et de Lehmann-Scheffé440
      • 6.6 Tests d'hypothèse443
      • 6.6.1 Concepts premiers444
      • 6.6.2 Niveau et puissance d'un test446
      • 6.6.3 Une illustration448
      • 6.7 L'approche de Neyman-Pearson450
      • 6.7.1 Procédure de test450
      • 6.7.2 Régions de rejet et p-valeurs452
      • 6.7.3 Développement d'un exemple454
      • 6.8 Tests de puissance maximale457
      • 6.8.1 Motivation et définitions458
      • 6.8.2 Le lemme de Neyman-Pearson459
      • 6.8.3 Hypothèses composées et extensions du lemme463
      • 6.9 Rapport de vraisemblance466
      • 6.9.1 Rapport de vraisemblance et hypothèses simples466
      • 6.9.2 Monotonie du rapport de vraisemblance et tests UPP469
      • 6.10 Exercices472
      • Chapitre 7 : Estimateurs et tests du maximum de vraisemblance
      • 7.1 Le principe et son application483
      • 7.1.1 Vraisemblances483
      • 7.1.2 Une définition485
      • 7.2 Estimateurs du maximum de vraisemblance491
      • 7.2.1 Un seul paramètre491
      • 7.2.2 Plusieurs paramètres495
      • 7.2.3 Application au modèle linéaire général500
      • 7.3 Propriétés des estimateurs du maximum de vraisemblance507
      • 7.3.1 Propriétés à distance finie507
      • 7.3.2 Propriétés en grands échantillons513
      • 7.3.3 Extension à l'estimation de plusieurs paramètres521
      • 7.4 Méthodes numériques d'optimisation529
      • 7.4.1 Généralités529
      • 7.4.2 L'algorithme de Newton-Raphson530
      • 7.4.3 La procédure de Berndt-Hall-Hall-Hausman532
      • 7.5 Tests du rapport de vraisemblance533
      • 7.5.1 Motivation et définition533
      • 7.5.2 Une autre illustration : le t-test537
      • 7.5.3 Loi asymptotique du RV539
      • 7.6 La «Sainte Trinité» des tests asymptotiques542
      • 7.6.1 Une approche intuitive du test du rapport des vraisemblances543
      • 7.6.2 Tests de Wald et du multiplicateur de Lagrange544
      • 7.6.3 Une application547
      • 7.6.4 Généralisation549
      • 7.7 Lois asymptotiques550
      • 7.7.1 Dépendance des observations550
      • 7.7.2 Le théorème fondamental553
      • 7.8 Intervalles de confiance555
      • 7.8.1 Justification et définition555
      • 7.8.2 Relation aux tests d'hypothèses557
      • 7.9 Exercices559
      • Appendices
      • Appendice A : Intégration571
      • Appendice B : Matrices et algèbre linéaire577
      • Appendice C : Tables statistiques591
      • Index terminologique597

  • Origine de la notice:
    • FR-751131015
  • Disponible - 330.14 BIS

    Niveau 3 - Economie