• Aide
  • Eurêkoi Eurêkoi

Livre

Statistique mathématique applications commentées

Résumé

Présentation des principales méthodes utilisées en statistique mathématique et leur illustration par des problèmes concrets.


  • Éditeur(s)
  • Date
    • 2010
  • Notes
    • Bibliogr. Index
  • Langues
    • Français
  • Description matérielle
    • Texte imprimé
    • 1 vol. (IX-346 p.) : illustrations en noir et en couleur ; 26 x 18 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 978-2-7298-5602-1
  • Indice
    • 519 Probabilités et statistiques mathématiques
  • Quatrième de couverture
    • L'ouvrage : niveau B (IUP - Licence)

      S'appuyant sur le calcul des probabilités, dont les techniques usuelles ont été développées dans un précédent ouvrage de l'auteur, ce manuel présente les principales méthodes utilisées en statistique mathématique, à travers des rappels de cours et plus d'une centaine de problèmes corrigés qui les illustrent au moyen de cas concrets.

      L'ouvrage s'adresse à un large public qui est celui des écoles d'ingénieurs cl des I.U.T, mais aussi des écoles de commerce et des universités dans des spécialités aussi diverses que l'ingénierie, la médecine, la biologie, l'agriculture, la gestion, l'économie... Il traite une grande variété de modèles et donne un riche aperçu des techniques statistiques autour des sujets classiques, échantillonnage, estimation, décision, et régression. Il trouve ainsi un juste compromis entre la rigueur mathématique et la pratique effective.

      La présentation est particulièrement fournie quant à l'estimation et la décision statistique où les tests non paramétriques trouvent une place importante.


  • Tables des matières
      • Statistiques

      • Statistique mathématique

      • Applications commentées

      • Jean-Pierre Boulay

      • ellipses

      • Chapitre I : Echantillonnage
      • A - Rappels de cours
      • 1. Lois de probabilités de base rencontrées en statistique1
      • 1.1 Définitions et caractérisations1
      • 1.2 Les propriétés de convergence3
      • 2. Statistiques et distributions d'échantillonnage5
      • 2.1 Le principe de l'inférence statistique5
      • 2.2 Cas d'une moyenne5
      • 2.3 Cas d'une proportion6
      • 2.4 Cas d'une variance7
      • 2.5 Récapitulatif concernant espérance, proportion, et variance8
      • 3. La pratique de l'échantillonnage10
      • B - Applications
      • 1. Distributions d'échantillonnage et propriétés11
      • 1.1 Moyenne et variance dans le cas d'échantillons gaussiens11
      • 1.2 Paramètres représentatifs des statistiques décrivant la variance16
      • 1.3 Distribution d'échantillonnage des rapports de variances19
      • 1.4 Distribution d'échantillonnage des différences de moyennes22
      • 1.5 Distribution d'échantillonnage des différences de proportions26
      • 1.6 La différence entre estimation et estimateur27
      • 2. Exemples de méthodes d'échantillonnage30
      • 2.1 Les sondages aléatoires sans replacement (exhaustifs)30
      • 2.2 Les sondages par stratification33
      • C - Exercices complémentaires 42
      • Chapitre II : Estimation
      • A - Rappels de cours
      • 1. La problématique de l'estimation statistique51
      • 2. Propriétés des estimateurs ponctuels52
      • 2.1 Qualités d'un bon estimateur52
      • 2.2 Comparaison des estimateurs52
      • 2.3 Information de Fisher53
      • 2.4 Inégalité de Cramer Rao55
      • 2.5 Statistiques exhaustives56
      • 2.6 Le cas particulier de la famille exponentielle57
      • 3. Construction des estimateurs58
      • 3.1 Théorèmes de Rao-Blacwell et Lehmann-Scheffe58
      • 3.2 Méthode des moments60
      • 3.3 Méthode du maximum de vraisemblance61
      • 3.4 Méthode des moindres carrés64
      • 3.5 Espérance, proportion, variance, et covariance64
      • 4. Estimation par intervalle de confiance65
      • 4.1 Construction de l'intervalle de confiance65
      • 4.2 Le cas d'une moyenne66
      • 4.3 Le cas d'une proportion67
      • 4.4 Le cas d'une variance68
      • B - Applications
      • 1. Exemples de modèles et propriétés des estimateurs68
      • 1.1 Modèle gaussien68
      • 1.2 Modèle de poisson71
      • 1.3 Modèle uniforme74
      • 1.4 Modélisation d'une hauteur de crue (loi de Rayleigh)78
      • 1.5 Modélisation de la durée de vie de diodes (loi de Weibull)80
      • 1.6 Modèle de Pareto82
      • 1.7 Modèle exponentiel translaté85
      • 2. Techniques particulières d'estimation88
      • 2.1 Modèle mélangé Poisson/Gamma en assurance automobile88
      • 2.2 Comment estimer un paramètre intime94
      • 2.3 Comptage des poissons dans un lac (méthode de capture et recapture)96
      • 2.4 Estimateur du nombre de fraudeurs dans un transport collectif98
      • 2.5 Evaluation d'une contamination (méthode most powerful number)100
      • 2.6 Evaluation de (...) à travers deux méthodes de Monte-Carlo104
      • 3. Intervalles de confiance108
      • 3.1 Comparaison des méthodes d'approximation pour une proportion108
      • 3.2 Sondages de popularité109
      • 3.3 Contrôle de fabrication par mesures111
      • 3.4 Intervalles de confiance d'une moyenne pour la loi de poisson115
      • 3.5 Une méthode par simulation, le bootstrap118
      • C - Exercices complémentaires 122
      • Chapitre III : Décision
      • A - Rappels de cours
      • 1. Les principes généraux de la décision statistique139
      • 1.1 L'objet des tests d'hypothèse139
      • 1.2 Les risques associés139
      • 1.3 La classification des tests141
      • 2. Les tests paramétriques141
      • 2.1 Hypothèses simples et multiples141
      • 2.2 La construction de la règle de décision142
      • 2.3 Tests de conformité à une valeur standard143
      • a) Le cas d'une moyenne 143
      • b) Le cas d'une proportion 145
      • c) Le cas d'une variance 145
      • d) Autres tests de conformité 146
      • e) Le cas des hypothèses composites 147
      • 2.4 Tests de comparaison entre deux échantillons indépendants148
      • a) La comparaison de variances (test de Fisher-Snedecor) 148
      • b) La comparaison de moyennes (test t de Student) 149
      • c) La comparaison de proportions 151
      • 2.5 Tests de comparaison entre deux échantillons appariés151
      • 2.6 Tests de comparaisons entre K échantillons indépendants, (K > 2)152
      • a) L'analyse de la variance (Anova) 152
      • b) Comparaison de variances (test de Bartlett) 156
      • 2.7 Tests progressifs156
      • 3. Les tests non paramétriques158
      • 3.1 Tests d'adéquation158
      • a) Le test du Chi-Deux 158
      • b) Le test de Kolmogorov 159
      • c) Le test de normalité de Shapiro et Wilk 160
      • d) La méthode graphique de la droite de Henry 161
      • 3.2 Tests de comparaison entre K échantillons indépendants162
      • a) Le test d'identité de Kolmogorov-Smirnov, (K=2) 162
      • b) Les tests d'identité de Mann-Whitney et Wilcoxon, (K=2) 164
      • c) Le choix du test approprié 166
      • d) Le test d'identité de Kruskal-Wallis, (K(...)2) 166
      • 3.3 Tests de comparaison entre K échantillons appariés167
      • a) Le test d'identité des signes, (K=2) 167
      • b) Le test d'identité des rangs « signés » de Wilcoxon, (K=2) 169
      • c) Le test d'identité de Mac Nemar, (variables binaires et K=2) 170
      • d) Le test d'identité de Cochran, (variables binaires et K(...)2) 171
      • e) Le test d'identité de Friedman, (K(...)2) 172
      • 3.4 Tests d'associations, (K=2)173
      • a) Le coefficient de corrélation des rangs Rho de Spearman 174
      • b) Le coefficient de corrélation des rangs Tau de Kendall 176
      • c) Le test de contingence de Chi-Deux 178
      • B - Applications
      • 1. Tests à un échantillon sous modèle gaussien179
      • 1.1 Test t de Student et pluviométrie179
      • 1.2 Test de proportion et étude de marché180
      • 1.3 Risques client et fournisseur181
      • 1.4 Test séquentiel de Wald portant sur une moyenne183
      • 1.5 Ajustements par une loi normale188
      • 2. Tests à un échantillon sous autres modèles191
      • 2.1 Test paramétrique pour le modèle de Poisson191
      • 2.2 Test paramétrique pour le modèle de Rayleigh194
      • 2.3 Tests portant sur un modèle de revenus « Pareto »199
      • 2.4 Test paramétrique entre deux lois pour une étude de clientèle202
      • 2.5 Test séquentiel de Wald et contrôle de réception205
      • 2.6 Ajustement par une loi uniforme209
      • 2.7 Tests non paramétriques de conformité à une valeur standard209
      • 3. Tests à deux échantillons sous modèle gaussien213
      • 3.1 Un exemple utilisant les tests de Student et de Fisher Snedecor213
      • 3.2 Comparaison de moyennes sur échantillons appariés216
      • 3.3 Comparaison de variances entre deux types de solutions aqueuses217
      • 3.4 Comparaison de proportions222
      • 3.5 Tables de contingences (2,2) et échantillons indépendants224
      • 3.6 Corrélation entre taille et poids (coefficient r de Pearson)228
      • 4. Tests à deux échantillons sous autres modèles231
      • 4.1 Test paramétrique de comparaison sous modèle exponentiel231
      • 4.2 Comparaison du test de Wilcoxon avec le test paramétrique233
      • 4.3 Au sujet du traitement des ex-aequo dans les tests de rangs238
      • 4.4 Etude de tendance suivant échantillons indépendants puis appariés239
      • 4.5 Evaluation de l'efficacité d'un traitement par tests non paramétriques241
      • 4.6 Etude d'impact suivant le test de Mac Nemar246
      • 4.7 Coefficient de contingence247
      • 4.8 Alternative au « r » de Pearson, le coefficient « (...) » de Kendall249
      • 4.9 Coefficient « p » de Spearman252
      • 5. Tests à plus de deux échantillons254
      • 5.1 Analyse de variance (test « Anova » de Fisher)254
      • 5.2 Test de Kruskal-Wallis257
      • 5.3 Test de la médiane généralisée259
      • 5.4 Test de Friedman appliqué à un problème d'ergonomie261
      • 5.5 Comparaisons sur échantillons liés et données binaires (Cochran)263
      • C - Exercices complémentaires 265
      • Chapitre IV : Régression
      • A - Rappels de cours
      • 1. Régression linéaire simple299
      • 1.1 Le modèle299
      • 1.2 Estimation des paramètres300
      • 1.3 Erreur moyenne300
      • 1.4 Interprétation du coefficient de corrélation empirique301
      • 1.5 Coefficient de détermination et analyse de la variance301
      • 1.6 Propriétés des estimateurs des coefficients de la droite de régression303
      • 1.7 Intervalles de confiance et tests pour modèle linéaire gaussien304
      • 2. Régression linéaire multiple305
      • 2.1 Le modèle305
      • 2.2 Estimateurs des moindres carrés305
      • 2.3 Etude des coefficients et analyse de la variance307
      • B - Applications
      • 1. Modèles à une variable explicative308
      • 1.1 Autour de la droite de régression308
      • 1.2 Parabole des moindres carrés et distance de freinage312
      • 1.3 Equations non linéaires se ramenant au modèle linéaire (gaz parfait)314
      • 1.4 Modèle de régression (taille, poids)315
      • 2. Modèles à plusieurs variables explicatives316
      • 2.1 Illustration autour d'un modèle à deux variables explicatives316
      • 2.2 Matrices et régression linéaire multiple320
      • C - Exercices complémentaires 326
      • Annexes
      • Table des valeurs de la loi normale centrée réduite334
      • Table des valeurs de la loi de Student335
      • Table des valeurs de la loi du chi-deux de Pearson336
      • Tables de la loi de Fisher-Snedecor337
      • Test de Shapiro et Wilk339
      • Test binomial339
      • Test de Wilcoxon, Mann, et Whitney340
      • Test des rangs signés de Wilcoxon340
      • Test de Kolmogorov (pour un échantillon)341
      • Test de Friedman341
      • Test de Kolmogorov-Smirnov (pour deux échantillons)342
      • Bibliographie 343
      • Index
      • Index alphabétique345

  • Origine de la notice:
    • Electre
  • Disponible - 519 BOU

    Niveau 2 - Sciences