Méthodes statistiques en sciences humaines
David C. Howell
De Boeck
Préface de l'auteur
xvii
Au sujet de l'auteur
xxi
Chapitre 1 Concepts de base
1
1.1 Termes importants2
1.2 Statistique descriptive et inférence statistique5
1.3 Échelles de mesure5
1.4 Utilisation des ordinateurs9
1.5 Plan du livre10
Chapitre 2 Description et exploration des données
15
2.1 Représentation graphique de données17
2.2 Histogrammes19
2.3 Diagrammes en tiges et feuilles21
2.4 Méthodes alternatives de représentation graphique des données23
2.5 Description de distributions26
2.6 Utilisation de programmes informatiques pour représenter les données29
2.7 Notation31
2.8 Mesures de tendance centrale33
2.9 Mesures de variabilité39
2.10 Diagrammes en forme de boîte : représentations graphiques de dispersions et scores
extrêmes51
2.11 Obtention de mesures de dispersion en utilisant Minitab55
2.12 Pourcentiles, quartiles et déciles56
2.13 L'effet de transformations linéaires sur les données57
Chapitre 3 La distribution normale
67
3.1 La distribution normale70
3.2 La distribution normale réduite73
3.3 Utilisation des tables de la distribution normale réduite75
3.4 Fixation de limites probables à une observation77
3.5. Mesures liées à z79
Chapitre 4 Distributions d'échantillonnage et tests d'hypothèse
83
4.1 Deux exemples simples impliquant l'évaluation de cours et des automobilistes
grossiers84
4.2 Distributions d'échantillonnage86
4.3 La théorie du test d'hypothèse88
4.4 L'hypothèse nulle91
4.5 Les statistiques de test et leurs distributions d'échantillonnage93
4.6 Utilisation de la distribution normale pour tester des hypothèses94
4.7 Erreurs de type I et de type II97
4.8 Tests unilatéraux et bilatéraux100
4.9 Que signifie le fait de rejeter l'hypothèse nulle ?102
4.10 Une autre conception du test d'hypothèse103
4.11 Taille d'effet105
4.12 Un exemple final106
4.13 Retour à l'évaluation des cours et aux automobilistes grossiers107
Chapitre 5 Concepts de base des probabilités
111
5.1 Probabilités112
5.2 Terminologie et règles de base113
5.3 Variables discrètes et continues118
5.4 Distributions de probabilité pour les variables discrètes118
5.5 Distributions de probabilité pour les variables continues119
5.6 Permutations et combinaisons121
5.7 Le théorème de Bayes124
5.8 La distribution binomiale127
5.9 Utilisation de la distribution binomiale pour tester des hypothèses131
5.10 La distribution multinomiale134
Chapitre 6 Données catégorielles et khi-carré
139
6.1 La distribution khi-carré140
6.2 Le test khi-carré d'ajustement - classification à un facteur142
6.3 Deux variables de classification : analyse des tables de contingence145
6.4 Le khi-carré pour de plus grandes tables de contingence148
6.5 Le khi-Carré pour des données ordinales152
6.6 Résumé des conditions d'application du khi-carré152
6.7 Tests unilatéraux et bilatéraux154
6.8 Tests des rapports de vraisemblance155
6.9 Les tailles d'effet156
6.10 Mesures d'accord161
6.11 Communiquer les résultats163
Chapitre 7 Le test d'hypothèse appliqué aux moyennes
173
7.1 Distribution d'échantillonnage de la moyenne174
7.2 Le test d'hypothèse sur les moyennes - Sigma connu176
7.3 Tester une moyenne d'échantillon lorsque Sigma est inconnu -
le test t sur un échantillon179
7.4 Le test d'hypothèse appliqué aux moyennes - deux échantillons pairés188
7.5 Le test d'hypothèse appliqué aux moyennes - deux échantillons indépendants197
7.6 Un exemple final205
7.7 Hétérogénéité des variances : le problème de Behrens-Fisher207
7.8 Le test d'hypothèse revisité210
Chapitre 8 La puissance
217
8.1 Facteurs influençant la puissance d'un test219
8.2 Taille de l'effet221
8.3 Calculs de la puissance pour le test t sur un échantillon223
8.4 Calculs de la puissance pour les différences entre deux moyennes indépendantes225
8.5 Calculs de la puissance pour le test t sur échantillons pairés229
8.6 Considérations sur la puissance en termes de tailles d'échantillon231
8.7 Puissance rétrospective231
8.8 Communiquer les résultats d'une analyse de puissance.233
Chapitre 9 Corrélation et régression
237
9.1 Le diagramme de dispersion239
9.2 La relation entre le stress et la santé241
9.3 La covariance243
9.4 Le coefficient de corrélation du produit des moments de Pearson (r)244
9.5 La droite de régression246
9.6 L'exactitude de la prédiction250
9.7 Les conditions d'application sous-tendant la corrélation et la régression257
9.8 Limites de confiance de y258
9.9 Un exemple sur ordinateur montrant le rôle des capacités à passer des tests260
9.10 Le test d'hypothèse263
9.11 Le rôle des conditions d'application dans la corrélation et la régression271
9.12 Les facteurs influençant la corrélation272
9.13 Calcul de la puissance pour le r de Pearson274
Chapitre 10 Techniques alternatives de corrélation
283
10.1 Corrélation bisérielle de point et phi : autres noms pour le coefficient de corrélation
de Pearson285
10.2 Corrélation bisérielle et tétrachorique : coefficients de corrélation différents de celui
de Pearson293
10.3 Coefficients de corrélation pour données rangées294
10.4 Analyse des tables de contingence avec des variables ordinales297
10.5 Le coefficient de concordance de Kendall (W)300
Chapitre 11 L'analyse simple de variance
305
11.1 Exemple306
11.2 Le modèle sous-jacent307
11.3 La logique de l'analyse de variance310
11.4 Calculs de l'analyse de variance312
11.5 Communiquer les résultats318
11.6 Solutions par ordinateur318
11.7 Dérivation de l'analyse de variance321
11.8 Échantillons de tailles inégales323
11.9 Violation des conditions d'application325
11.10 Transformations327
11.11 Modèles fixes et modèles aléatoires334
11.12 Grandeur de l'effet expérimental335
11.13 La puissance339
11.14 Analyses par ordinateur346
Chapitre 12 Comparaisons multiples entre des moyennes de traitement
353
12.1 Les taux d'erreur354
12.2 Les comparaisons multiples dans une expérience simple sur la tolérance
à la morphine357
12.3 Les comparaisons a priori359
12.4 Intervalles de confiance et tailles d'effet pour les contrastes375
12.5 Communiquer les résultats378
12.6 Les comparaisons a posteriori380
12.7 Le test de Tukey382
12.8 La procédure de Ryan (REGWQ)385
12.9 Le test de Scheffé386
12.10 Le test de Dunnett pour comparer tous les traitements à un groupe témoin386
12.11 Comparaison des différentes procédures388
12.12 Quel test choisir ?389
12.13 Solutions par ordinateur389
12.14 L'analyse de tendances393
Chapitre 13 L'analyse factorielle de variance
403
13.1 Extension de l'étude d'Eysenck406
13.2 Modèles structurels et carrés moyens attendus411
13.3 Interactions412
13.4 Effets simples414
13.5 L'analyse de variance appliquée aux effets du tabagisme417
13.6 Comparaisons multiples419
13.7 Analyse de la puissance pour des expériences factorielles421
13.8 Carrés moyens attendus423
13.9 Mesures d'association et taille d'effet426
13.10 Communiquer les résultats434
13.11 Échantillons de tailles inégales434
13.12 Analyse d'échantillons de tailles inégales via SAS440
13.13 Plans factoriels d'ordre supérieur441
13.14 Exemple par ordinateur448
Chapitre 14 Les plans à mesures répétées
455
14.1 Le modèle structurel458
14.2 Rapports F458
14.3 La matrice des covariances459
14.4 L'analyse de variance appliquée à la relaxothérapie460
14.5 Contrastes et tailles d'effet dans les plans à mesures répétées463
14.6 Communiquer les résultats465
14.7 Une variable inter-sujets et une variable intra-sujets465
14.8 Deux variables inter-sujets et une variable intra-sujets477
14.9 Deux variables intra-sujets et une variable inter-sujets483
14.10 Corrélation intra-classe491
14.11 Considérations diverses493
14.12 Analyse par ordinateur utilisant une approche traditionnelle495
14.13 Analyse multivariée de la variance pour les plans à mesures répétées497
Chapitre 15 La régression multiple
509
15.1 La régression linéaire multiple510
15.2 Erreurs standard et tests des coefficients de régression518
15.3 La variance résiduelle520
15.4 Conditions d'application relatives aux distributions520
15.5 Le coefficient de corrélation multiple521
15.6 Représentation géométrique de la régression multiple523
15.7 Corrélation partielle et semi-partielle527
15.8 Variables éliminatrices532
15.9 Diagnostics de régression533
15.10 Construction d'une équation de régression538
15.11 L'«importance» des différentes variables544
15.12 Utilisation de coefficients de régression approximatifs545
15.13 Relations de médiation et de modération546
15.14 La régression logistique554
Chapitre 16 Les analyses de variance et de covariance comme modèles linéaires
généraux
573
16.1 Le modèle linéaire général574
16.2 L'analyse de variance à un critère de classification577
16.3 Plans factoriels580
16.4 L'analyse de variance avec des échantillons de tailles inégales587
16.5 L'analyse de covariance à un critère de classification593
16.6 Le calcul des tailles d'effet dans l'analyse de covariance602
16.7 Interprétation d'une analyse de covariance606
16.8 Communiquer les résultats d'une analyse de covariance607
16.9 L'analyse de covariance à plusieurs facteurs607
16.10 Utilisation de covariées multiples616
16.11 Plans expérimentaux alternatifs617
Chapitre 17 L'analyse log-linéaire
623
17.1 Les tables de contingence à deux dimensions625
17.2 Spécifications des modèles630
17.3 Test des modèles633
17.4 Chances et rapports de cotes637
17.5 Effets du traitement (lambda)637
17.6 Les tables à trois dimensions638
17.7 Dérivation des modèles644
17.8 Les effets du traitement646
Chapitre 18 Approches de ré-échantillonnage et non paramétriques
des données
655
18.1 Le bootstrap comme approche générale658
18.2 Le bootstrap avec un échantillon659
18.3 Ré-échantillonner avec deux échantillons appariés662
18.4 Ré-échantillonner avec deux échantillons indépendants663
18.5 Les limites de confiance bootstrap sur un coefficient de corrélation667
18.6 Le test de la somme des rangs de Wilcoxon670
18.7 Le test des rangs pour échantillons pairés de Wilcoxon675
18.8 Le test du signe679
18.9 L'analyse de variance à un critère de classification de Kruskal-Wallis680
18.10 Le test des rangs de Friedman pour k échantillons non indépendants682
Annexes
687
Bibliographie
721
Réponses à certains exercices
731
Index
749