Maitrise de la variabilité et gestion des risques d'erreur
Initiation à la critique des mesures sur lesquelles se base un diagnostic
Dr. Eric Depiereux
Presses universitaires de Namur
1 Avant-propos1
1.1 Variabilité et erreur1
1.2 Enseignement et apprentissage3
1.3 Auto-évaluation formative4
1.4 Style du texte5
1.5 Navigation dans cet ouvrage5
1.6 Tables et formulaires8
1.7 Bibliographie8
10 Variabilités et erreurs11
10.1 Population et mesures expérimentales11
10.2 En quoi consiste la variabilité ?13
10.2.1 Imprécision14
10.2.2 Inexactitude15
10.2.3 Variabilité factorielle16
10.2.4 Variabilité in individuelle17
10.3 Comment maîtriser la variabilité ?19
10.3.1 Pourquoi la mesure est-elle variable ?19
10.3.2 En quoi la variabilité pose-t-elle un problème ?20
10.3.3 En quoi les statistiques apportent-elles une solution ?21
10.3.4 Peut-on supprimer la variabilité ?21
10.4 La force de la preuve23
10.5 Mesures de la variabilité24
10.5.1 Ecarts à la moyenne arithmétique24
10.5.2 Mesure de la variabilité25
10.5.3 Equation des sommes des carrés des écarts27
10.5.4 Variance30
10.5.5 Ecart-type31
10.5.6 Centrage32
10.5.7 Standardisation33
11 Description des données35
11.1 Définitions35
11.2 Description d'une variable35
11.2.1 Tables et graphiques des variables discrètes35
11.2.2 Tables et graphiques des variables continues40
11.2.3 Tendance centrale d'une distribution44
11.2.4 Dispersion d'une distribution46
11.2.5 Représentation graphique de la moyenne et de l'écart-type49
11.3 Risques d'erreur51
11.4 A voir sur le site52
20 Variabilité conjointe de deux variables53
20.1 Tables et graphiques54
20.2 Intensité de la relation entre deux variables56
20.2.1 Modélisation de la variabilité56
20.2.2 Mesure de la qualité du modèle59
20.2.3 Propriétés du coefficient de détermination61
20.3 Mesure de l'intensité de la relation entre deux variables62
20.3.1 Somme des produits d'écarts à la moyenne62
20.3.2 Covariance64
20.3.3 Coefficient de corrélation linéaire66
20.3.4 Interprétation de la valeur du coefficient de corrélation67
20.3.5 Relations non linéaires68
20.3.6 Corrélation et causalité70
20.4 Caractérisation de la relation entre deux variables71
20.4.1 Ecarts résiduels71
20.4.2 Droite des moindres carrés Y(X)73
20.4.3 Interpolation et extrapolation75
20.5 Risques d'erreur75
20.5.1 Confusion entre corrélation et détermination75
20.5.2 Influence des données extrêmes76
20.5.3 Extrapolation abusive76
20.5.4 Confusion entre corrélation et causalité76
20.6 A voir sur le site76
30 Etude du hasard77
30.1 Déduction et induction77
30.2 Notions d'épreuve et d'événement79
30.3 Notion de probabilité81
30.3.1 La probabilité définie à partir de l'observation81
30.3.2 La probabilité définie a priori82
30.4 Lois de probabilités84
30.4.1 Loi des probabilités composées (événement indépendants)84
30.4.2 Tables de contingence85
30.4.3 Probabilités conditionnelles86
30.4.4 (Non) Indépendance87
30.4.5 Loi des probabilités composées, forme générale88
30.4.6 Loi des probabilités totales89
30.4.7 Eprouver un modèle91
30.4.8 Loi de Bayes93
30.5 Faux négatif et faux positif93
30.6 Risque d'erreur97
30.7 A voir sur le site97
40 Modélisation de la variabilité99
40.1 Introduction100
40.2 Modèles concernant des dénombrements101
40.2.1 Modélisation101
40.2.2 Tables et graphiques102
40.2.3 Valeurs caractéristiques103
40.2.4 Modèles détaillés103
40.3 Modèles concernant des mesures continues104
40.3.1 Fonction de densité de probabilité104
40.3.2 Tables et graphiques105
40.3.3 Valeurs caractéristiques106
40.3.4 Modèles présentés106
50 Le modèle binomial107
50.1 Principe107
50.2 Exemple de l'analyse de portions du génome109
50.2.1 Hypothèses du modèle109
50.2.2 Probabilités découlant du modèle109
50.2.3 Intérêt du modèle110
50.3 Tables110
50.4 Graphiques111
50.5 Risque d'erreur112
60 Le modèle de Poisson113
60.1 Principe113
60.2 Tables et graphiques114
60.3 Exemple115
60.4 Risque d'erreur115
70 Le modèle Normal de Gauss et Laplace117
70.1 Fonction de probabilité117
70.2 Valeurs caractéristiques118
70.3 Calcul de probabilité119
70.4 Variable normale réduite120
70.4.1 Utilité120
70.4.2 Standardisation (ou réduction)120
70.4.3 Propriétés121
70.4.4 Tables et graphiques122
70.5 Faux positifs et faux négatifs125
70.6 Théorème central limite125
70.7 Distribution d'échantillonnage de Mx128
70.7.1 Utilité128
70.7.2 Augmentation de la précision128
70.8 A voir sur le site130
80 Le modèle de Student131
80.1 Principe131
80.2 Tables et graphiques132
80.3 Exemple133
90 Le modèle du Khi-Carré135
90.1 Principe135
90.2 Degrés de liberté137
90.3 Tables137
90.4 Graphiques138
90.5 Exemples139
100 Le modèle de Fisher141
100.1 Principe141
100.2 Degrés de liberté142
100.3 Tables143
100.4 Graphiques144
100.5 Exemple144
105 Imprécision et incertitude145
105.1 Principe de l'intervalle de confiance145
105.2 Distribution d'échantillonnage146
105.3 L'intervalle de confiance147
105.4 Intervalle de confiance de la moyenne148
105.4.1 Principe148
105.4.2 Technique149
105.4.3 L'intervalle de confiance peut réserver des surprises152
110 Décisions et risques d'erreur153
110.1 Prise de décision par un test d'hypothèse153
110.2 Risque d'erreur connu et inconnu154
120 Maîtrise des risques d'erreur159
120.1 Complexification des modèles décrivant le hasard159
120.1.1 Modèle binomial159
120.1.2 Modèle Khi-Carré163
120.1.3 Modèle de la distribution d'échantillonnage des moyennes166
120.2 Optimisation du plan expérimental169
120.2.1 Taille de l'échantillon169
120.2.2 Interdépendance des paramètres170
120.2.3 Contrôle de la puissance173
120.2.4 Optimisation de la puissance177
120.2.5 La plus petite différence pertinente177
120.2.6 Information de l'intervalle de confiance suite à AHO (...)178
120.2.7 Déterminer n179
120.2.8 A voir sur le site181
120.2.9 Remarque sur le monde de calcul181
125 Tests d'hypothèse relatifs aux variances183
125.1 Calcul de la variance183
125.2 Distributions de référence183
125.3 Comparaison de deux variances184
125.3.1 Modèle184
125.3.2 Test bi-directionnel186
125.3.3 Conclusions et risque d'erreur186
125.4 Comparaison de plus de deux variances186
125.4.1 Contexte186
125.4.2 Modèle187
125.4.3 Conclusions et risque d'erreur188
130 Tests d'hypothèse relatifs aux moyennes189
130.1 Conditions générales189
130.1.1 Echantillonnage189
130.1.2 Distributions190
130.1.3 Risques d'erreur190
130.2 Test de comparaison d'une moyenne à un standard191
130.2.1 Principes191
130.2.2 Un échantillon de valeurs indépendantes, variance connue193
130.2.3 Egalité des variances195
130.2.4 Un échantillon de valeurs indépendantes, variance estimée196
130.2.5 Deux échantillons de valeurs pairées198
130.3 Test de comparaison de deux moyennes199
130.3.1 Le test de Student199
130.4 Risques d'erreur dans le choix du test202
135 Tests d'hypothèse relatifs aux fréquences203
135.1 Modèles générant des fréquences théoriques203
135.2 Modèles décrivant l'effet du hasard204
135.2.1 Une ligne et deux catégories204
135.2.2 Une ligne et plus de deux catégories205
135.2.3 Table de contingence 2 x 2 (indépendance)206
135.2.4 Table de contingence 2 x 2 (homogénéité de proportion)208
135.2.5 Table de contingence plus de 2 x 2209
135.2.6 Remarque sur le mode de calcul210
135.3 Risque d'erreur211
140 Comparaisons de moyennes : ANOVA I fixe213
140.1 Concept de l'ANOVA213
140.2 Modèle215
140.3 Hypothèses216
140.4 Equation de l'ANOVA217
140.5 Carrés moyens217
140.6 Exemple d'ANOVA 1 : expérience américaine218
140.6.1 Test d'homogénéité des variances218
140.6.2 Test d'égalité des moyennes219
140.7 Exemple d'ANOVA 1 : expérience européenne219
140.7.1 Test d'homogénéité des variances219
140.7.2 Test d'égalité des moyennes220
140.8 Que décider face à des conclusions contradictoires ?220
140.9 Risques d'erreur221
140.10 A voir sur le site221
150 Contrastes ou comparaisons post-hoc223
150.1 Principe223
150.2 Contrastes de Scheffé224
150.3 Risque d'erreur225
150.4 A voir sur le site225