• Aide
  • Eurêkoi Eurêkoi

Livre

Statistique : la théorie et ses applications

Résumé

A pour objectif de rendre accessibles les fondements théoriques de la statistique à un public de niveau mathématique moyen : étudiants de 1er cycle scientifique, élèves ingénieurs et chercheurs (en biologie, économie, psychologie...). Présente la théorie des probabilités ainsi que les notions de tests et d'estimation.


  • Éditeur(s)
  • Date
    • 2004
  • Notes
    • Bibliogr. Index
  • Langues
    • Français
  • Description matérielle
    • XIII-339 p. ; 24 x 16 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 2-287-21241-8
  • Indice
    • 519 Probabilités et statistiques mathématiques
  • Quatrième de couverture
    • Cet ouvrage expose les fondements théoriques des méthodes classiques de la statistique (estimation et tests) ainsi que des approches introduites plus récemment.

      Les premiers chapitres sont consacrés aux notions de la théorie des probabilités, nécessaires à la statistique. Puis sont développés les tests et méthodes d'estimation dans les situations paramétriques et non paramétriques. Enfin sont traités les modèles de base de la régression. Tout au long des chapitres, des exemples et exercices concrets sont proposés.

      La présentation témoigne d'un réel souci pédagogique de l'auteur qui bénéficie d'une vaste expérience d'enseignement auprès de publics très variés. Les résultats exposés sont, autant que possible, replacés dans la perspective de leur utilité pratique.

      Le niveau mathématique requis, le rend accessible aux étudiants de premier cycle universitaire et aux chercheurs dans les divers domaines des sciences appliquées.

      Il sera donc utile aux étudiants devant aborder les aspects théoriques de la statistique ou aux utilisateurs, pour les assurer du choix judicieux des méthodes qu'ils emploient.


  • Tables des matières
      • La théorie et ses applications

      • Michel Lejeune

      • Springer

      • 1 Variables aléatoires 1
      • 1.1 Notion de variable aléatoire1
      • 1.2 Fonction de répartition4
      • 1.3 Cas des variables aléatoires discrètes6
      • 1.4 Cas des variables aléatoires continues6
      • 1.5 Notion essentielle de quantile9
      • 1.6 Fonction d'une variable aléatoire11
      • 1.7 Exercices12
      • 2 Espérance mathématique et moments 15
      • 2.1 Introduction et définition15
      • 2.2 Espérance d'une fonction d'une variable aléatoire16
      • 2.3 Linéarité de l'opérateur E(.), moments, variance18
      • 2.4 Tirage aléatoire dans une population finie : distribution empirique et distribution probabiliste21
      • 2.5 Fonction génératrice des moments21
      • 2.6 Formules d'approximation de l'espérance et de la variance d'une fonction d'une v.a.24
      • 2.7 Exercices25
      • 3 Couples et n-uplets de variables aléatoires 27
      • 3.1 Introduction27
      • 3.2 Couples de v.a.28
      • 3.3 Indépendance de deux variables aléatoires31
      • 3.4 Espérance mathématique, covariance, corrélation32
      • 3.5 Somme de deux v.a.36
      • 3.6 Les n-uplets de v.a. ; somme de n v.a.37
      • 3.7 Sondage aléatoire dans une population et v.a. i.i.d.38
      • 3.8 Notation matricielle des vecteurs aléatoires39
      • 3.9 Loi de Gauss multivariée40
      • 3.10 Exercices43
      • 4 Les lois de probabilités usuelles 45
      • 4.1 Les lois discrètes45
      • 4.1.1 La loi uniforme discrète45
      • 4.1.2 Loi de Bernoulli B(p)46
      • 4.1.3 Le processus de Bernoulli et la loi binomiale B(n, p)47
      • 4.1.4 Les lois géométrique G(p) et binomiale négative BN(r, p)49
      • 4.1.5 La loi hypergéométrique H(N, M, n)50
      • 4.1.6 La loi multinomiale51
      • 4.1.7 Le processus et la loi de Poisson P(Lambda)51
      • 4.2 Les lois continues54
      • 4.2.1 La loi continue uniforme U[a, b]54
      • 4.2.2 La loi exponentielle Epsilon(Lambda)55
      • 4.2.3 La loi gamma Gamma(r, Lambda)56
      • 4.2.4 La loi de Gauss ou loi normale N(µ, Sigma2)57
      • 4.2.5 La loi lognormale LN(µ, Sigma2)60
      • 4.2.6 La loi de Pareto61
      • 4.2.7 La loi de Weibull W(Lambda, Alpha)61
      • 4.2.8 La loi de Gumbel62
      • 4.2.9 La loi bêta Beta(Alpha, Bêta)63
      • 4.3 Génération de nombres issus d'une loi donnée63
      • 4.4 Exercices64
      • 5 Lois fondamentales de l'échantillonnage 67
      • 5.1 Phénomènes et échantillons aléatoires67
      • 5.2 Moyenne, variance, moments empiriques69
      • 5.3 Loi du Khi-deux72
      • 5.4 Loi de Student74
      • 5.5 Loi de Fisher-Snedecor76
      • 5.6 Statistiques d'ordre77
      • 5.7 Fonction de répartition empirique78
      • 5.8 Convergence, approximations gaussiennes, grands échantillons79
      • 5.8.1 Les modes de convergence aléatoires79
      • 5.8.2 Lois des grands nombres81
      • 5.8.3 Le théorème central limite82
      • 5.9 Exercices86
      • 6 Théorie de l'estimation paramétrique ponctuelle 91
      • 6.1 Cadre général de l'estimation91
      • 6.2 Cadre de l'estimation paramétrique92
      • 6.3 La classe exponentielle de lois94
      • 6.4 Une approche intuitive de l'estimation : la méthode des moments96
      • 6.5 Qualités des estimateurs98
      • 6.5.1 Biais d'un estimateur99
      • 6.5.2 Variance et erreur quadratique moyenne d'un estimateur100
      • 6.5.3 Convergence d'un estimateur103
      • 6.5.4 Exhaustivité d'un estimateur105
      • 6.6 Recherche des meilleurs estimateurs sans biais110
      • 6.6.1 Estimateurs UMVUE110
      • 6.6.2 Estimation d'une fonction de Thêta et reparamétrisation114
      • 6.6.3 Borne de Cramer-Rao et estimateurs efficaces114
      • 6.6.4 Extension à un paramètre de dimension k > 1118
      • 6.7 L'estimation par la méthode du maximum de vraisemblance121
      • 6.7.1 Définitions122
      • 6.7.2 Exemples et propriétés123
      • 6.7.3 Reparamétrisation et fonctions du paramètre126
      • 6.7.4 Comportement asymptotique de l'EMV127
      • 6.8 Les estimateurs bayésiens128
      • 6.9 Exercices131
      • 7 Estimation paramétrique par intervalle de confiance 135
      • 7.1 Définitions135
      • 7.2 Méthode de la fonction pivot138
      • 7.3 Méthode asymptotique140
      • 7.4 Construction des IC classiques144
      • 7.4.1 IC pour la moyenne d'une loi N(µ, Sigma2)144
      • 7.4.2 IC pour la variance Sigma2 d'une loi de Gauss146
      • 7.4.3 IC sur la différence des moyennes de deux lois de Gauss147
      • 7.4.4 IC sur le rapport des variances de deux lois de Gauss149
      • 7.4.5 IC sur le paramètre p d'une loi de Bernoulli150
      • 7.4.6 IC sur la différence des paramètres de deux lois de Bernoulli152
      • 7.5 IC par la méthode des quantiles153
      • 7.6 Approche bayésienne157
      • 7.7 Notions d'optimalité des IC158
      • 7.8 Région de confiance pour un paramètre de dimension k > 1159
      • 7.9 Intervalles de confiance et tests163
      • 7.10 Exercices163
      • 8 Estimation non paramétrique et estimation fonctionnelle 167
      • 8.1 Introduction167
      • 8.2 Estimation de la moyenne et de la variance de la loi168
      • 8.2.1 Estimation de la moyenne µ168
      • 8.2.2 Estimation de la variance Sigma2169
      • 8.3 Estimation d'un quantile170
      • 8.4 Les méthodes de rééchantillonnage172
      • 8.4.1 Introduction172
      • 8.4.2 La méthode du jackknife173
      • 8.4.3 La méthode du bootstrap177
      • 8.5 Estimation fonctionnelle181
      • 8.5.1 Introduction181
      • 8.5.2 L'estimation de la densité182
      • 8.5.3 L'estimation de la fonction de répartition192
      • 8.6 Exercices198
      • 9 Tests d'hypothèses paramétriques 201
      • 9.1 Introduction201
      • 9.2 Test d'une hypothèse simple avec alternative simple202
      • 9.3 Test du rapport de vraisemblance simple208
      • 9.3.1 Propriété d'optimalité208
      • 9.3.2 Cas d'un paramètre de dimension 1212
      • 9.4 Tests d'hypothèses multiples213
      • 9.4.1 Risques, puissance et optimalité213
      • 9.4.2 Tests d'hypothèses multiples unilatérales214
      • 9.4.3 Tests d'hypothèses bilatérales219
      • 9.5 Test du rapport de vraisemblance généralisé220
      • 9.6 Remarques diverses226
      • 9.7 Les tests paramétriques usuels228
      • 9.7.1 Tests sur la moyenne d'une loi N(µ, Sigma2)229
      • 9.7.2 Test sur la variance Sigma2 d'une loi N(µ, Sigma2)231
      • 9.7.3 Tests de comparaison des moyennes de deux lois de Gauss232
      • 9.7.4 Tests de comparaison des variances de deux lois de Gauss235
      • 9.7.5 Tests sur le paramètre p d'une loi de Bernoulli (ou test sur une proportion)235
      • 9.7.6 Tests de comparaison des paramètres de deux lois de Bernoulli (comparaison de deux proportions)237
      • 9.7.7 Test sur la corrélation dans un couple gaussien240
      • 9.8 Dualité entre tests et intervalles de confiance242
      • 9.9 Exercices244
      • 10 Tests pour variables catégorielles et tests non paramétriques 251
      • 10.1 Test sur les paramètres d'une loi multinomiale252
      • 10.1.1 Test du rapport de vraisemblance généralisé252
      • 10.1.2 Test du khi-deux de Pearson254
      • 10.1.3 Equivalence asymptotique des deux tests255
      • 10.1.4 Cas particulier de la loi binomiale256
      • 10.2 Test de comparaison de plusieurs lois multinomiales257
      • 10.3 Test d'indépendance de deux variables catégorielles259
      • 10.3.1 Test du RVG et test du khi-deux259
      • 10.3.2 Test exact de Fisher (tableau 2 x 2)262
      • 10.4 Tests d'ajustement à un modèle de loi264
      • 10.4.1 Ajustement à une loi parfaitement spécifiée265
      • 10.4.2 Ajustement dans une famille paramétrique donnée267
      • 10.5 Tests non paramétriques sur des caractéristiques de lois272
      • 10.5.1 Introduction272
      • 10.5.2 Les statistiques de rang272
      • 10.5.3 Tests sur moyenne, médiane et quantiles273
      • 10.5.4 Tests de localisation de deux lois274
      • 10.5.5 Test pour la corrélation de Spearman281
      • 10.6 Exercices283
      • 11 Régressions linéaire, logistique et non paramétrique 289
      • 11.1 Introduction à la régression289
      • 11.2 La régression linéaire292
      • 11.2.1 Le modèle292
      • 11.2.2 Les estimateurs du maximum de vraisemblance293
      • 11.2.3 Intervalles de confiance296
      • 11.2.4 Test H0 : Bêta1 = 0297
      • 11.2.5 Cas non gaussien299
      • 11.2.6 Régression et corrélation linéaires300
      • 11.2.7 Extension à la régression multiple303
      • 11.3 La régression logistique305
      • 11.3.1 Le modèle305
      • 11.3.2 Estimation de la fonction p(x)306
      • 11.3.3 Matrice des variances-covariances de (...)308
      • 11.3.4 Test H0 : Bêta1 = 0309
      • 11.3.5 Intervalles de confiance310
      • 11.3.6 Remarques diverses312
      • 11.4 La régression non paramétrique314
      • 11.4.1 Introduction314
      • 11.4.2 Définition des estimateurs à noyaux314
      • 11.4.3 Biais et variance315
      • 11.4.4 La régression polynomiale locale318
      • 11.5 Exercices320
      • Tables 323
      • Bibliographie 329
      • Index 333

  • Origine de la notice:
    • Electre
  • Disponible - 519 LEJ

    Niveau 2 - Sciences