Statistiques médicales et biologiques
Fethi Borsali
ellipses
Partie 1 : Statistique descriptive
Chapitre 1 : Etude univariée12
I. Généralités et définitions12
1. Le recueil des données12
2. La présentation des données13
3. L'analyse des données13
4. La fiabilité des résultats13
II. Présentation numérique et graphique13
1. Caractère quantitatif discret13
2. Caractère quantitatif continu16
3. Caractère qualitatif19
III. Paramètres caractéristiques22
1. Paramètres de position22
1.1. Moyenne arithmétique22
1.2. Mode24
1.3. Médiane24
1.4. Quartiles25
1.5. Déciles27
1.6. Centiles27
1.7. Représentation graphique « Box Plot »27
2. Paramètres de dispersion30
2.1. Variance30
2.2. Ecart-type30
2.3. Signification de la variance (ou de l'écart-type)31
2.4. Ecart-interquartile32
2.5. Coefficient de dispersion32
3. Paramètres de forme32
3.1. Moments32
3.2. Coefficient d'asymétrie33
3.3. Coefficient de dérive34
3.4. Coefficient d'aplatissement34
IV. Conclusion35
Chapitre 2 : Etude bivariée36
I. Introduction36
II. Ajustement linéaire37
1. Droite de régression de y par rapport à x38
2. Droite de régression de x par rapport à y38
3. Covariance39
4. Détermination des coefficients39
5. Coefficient de corrélation de Pearson40
6. Interprétation concrète du coefficient de corrélation40
7. Coefficient de corrélation et type de corrélation42
III. Ajustement non linéaire45
IV. Représentation par un tableau de contingence47
V. Conclusion51
Partie 2 : Statistique probabiliste
Chapitre 1 : Eléments d'analyse combinatoire et calcul de probabilités52
I. Analyse combinatoire52
1. Généralités52
2. Arrangements53
2.1. Arrangements sans répétition53
2.2. Arrangements avec répétition53
3. Permutations54
3.1. Permutations sans répétition54
3.2. Permutations avec répétition54
4. Combinaisons54
4.1. Combinaisons sans répétition54
4.2. Combinaisons avec répétition55
5. Binôme de Newton56
II. Calcul de probabilités57
1. Généralités et définitions57
2. Notion d'événement57
3. Définition d'une probabilité58
3.1. Définition classique58
3.2. Définition statistique59
3.3. Remarque importante59
3.4. Quelques exemples59
4. Opérations sur les événements60
5. Axiomes des probabilités61
6. Probabilités composées62
6.1. Evénements dépendants. Probabilités conditionnelles62
6.2. Evénements indépendants63
7. Probabilités totales générales64
8. Probabilités complètes64
9. Probabilités des causes66
Chapitre 2 : Variables aléatoires réelles69
I. Introduction et définition69
1. Exemple préliminaire69
2. Définition70
II. Variables aléatoires discrètes70
1. Définition70
2. Loi de probabilité70
3. Fonction de distribution71
III. Variables aléatoires continues72
1. Définition72
2. Loi de probabilité72
3. Fonction de distribution72
4. Fonction densité ou densité de probabilité72
IV. Caractéristiques d'une variable aléatoire74
1. Espérance mathématique74
2. Variance75
3. Ecart-type75
4. Covariance76
V. Inégalité de Bienayme-Tchebicheff76
1. Interprétation de l'inégalité de Bienayme-Tchebicheff77
2. Signification de la variance (ou de l'écart-type)77
Chapitre 3 : Lois de probabilité fondamentales79
I. Généralités et définitions79
II. Loi binomiale79
1. Définition79
2. Espérance mathématique et variance80
3. Généralisation de la loi binomiale : loi multinomiale81
4. Loi faible des grands nombres de Jacob Bernoulli81
III. Loi hypergéométrique83
1. Définition83
2. Espérance mathématique et variance83
3. Approximation d'une loi hypergéométrique à une loi de binomiale83
IV. Loi de Poisson83
1. Phénomènes qui suivent la loi de Poisson84
2. Définition85
3. Espérance mathématique et variance85
4. Approximation d'une loi binomiale à une loi de Poisson85
V. Loi exponentielle86
1. Définition86
2. Espérance mathématique et variance86
3. Phénomènes qui suivent la loi exponentielle86
4. Fonction de survie87
VI. Loi de Laplace-Gauss ou loi normale87
1. Phénomènes qui suivent la loi normale87
2. Définition92
3. Espérance mathématique et variance92
4. Etude des caractères biologiques92
5. Loi normale centrée réduite93
6. Utilisation de la table94
7. Propriétés de la loi normale96
8. Approximation d'une loi binomiale à une loi normale97
Partie 3 : Statistique inductive
Chapitre 1 : Jugement sur échantillons99
I. Introduction99
II. Fluctuations d'échantillonnage100
III. Interprétation statistique100
1. Les problèmes d'estimation100
2. Les problèmes de conformité101
3. Les problèmes d'homogénéité101
4. Les problèmes de relation102
IV. Remarque sur la distribution du caractère103
V. Conclusion103
Chapitre 2 : Echantillonnage et estimation104
I. Généralités et définitions104
II. Distribution d'échantillonnage et intervalle de confiance d'une moyenne104
A. Cas des grands échantillons (n (...) 30)104
1. Distribution d'échantillonnage d'une moyenne104
2. Intervalle de confiance d'une moyenne106
3. Précision de l'estimation107
4. Détermination du nombre d'individus nécessaire108
B. Cas des petits échantillons (n < 30)109
1. Distribution d'échantillonnage d'une moyenne109
2. Intervalle de confiance d'une moyenne110
III. Distribution d'échantillonnage et intervalle de confiance d'une proportion112
1. Distribution d'échantillonnage d'une proportion112
2. Intervalle de confiance d'une proportion114
3. Précision de l'estimation115
4. Détermination du nombre d'individus nécessaire116
Chapitre 3 : Théorie des tests statistiques118
I. Position du problème118
II. Erreurs et risques d'erreurs119
III. Degré de signification123
IV. Puissance du test124
1. Influence de l'hypothèse alternative124
2. Influence de la taille de l'échantillon125
V. Détermination du nombre de sujets nécessaire126
1. Comparaison entre deux moyennes126
2. Comparaison entre deux proportions127
VI. Inflation du risque d'erreur de première espèce128
Chapitre 4 : Comparaison de moyennes et de proportions131
I. Comparaison de moyennes131
1. Comparaison d'une moyenne observée à une moyenne théorique131
2. Comparaison de deux moyennes pour des observations indépendantes133
3. Comparaison de deux moyennes pour des observations appariées141
II. Comparaison de deux proportions145
1. Comparaison d'une proportion observée à une proportion théorique145
2. Comparaison de deux proportions pour des observations indépendantes147
3. Comparaison de deux proportions pour des observations appariées150
Chapitre 5 : Analyse de la variance (ANOVA)157
I. Introduction157
II. Analyse de la variance à un facteur (ANOVA à un facteur)157
1. Définitions158
2. Décomposition de la variance totale159
3. Estimation de la variance totale159
4. Test F de Fisher-Snedecor160
5. Analyse des comparaisons a postériori - Méthode de Scheffe-162
6. Taille de l'effet et la statistique êta au carré (n2)170
III. Analyse de la variance à deux facteurs (ANOVA à deux facteurs)170
1. Plan d'ordre deux à une répétition170
1.1. Position du problème171
1.2. Décomposition de la variance totale173
1.3. Test F de Fisher-Snedecor173
2. Plan d'ordre deux à plusieurs répétitions178
2.1. Position du problème178
2.2. Décomposition de la variance totale181
2.3. Test F de Fisher-Snedecor181
IV. Analyse des comparaisons a priori dans l'ANOVA à un facteur184
1. Contrastes orthogonaux185
2. Inflation du risque d'erreur186
3. Analyse des comparaisons a priori186
3.1. Contrastes orthogonaux188
3.2. Contrastes orthogonaux188
V. Conclusion191
Chapitre 6 : Test de khi-deux ou test de K. Pearson192
I. Comparaison d'une distribution expérimentale a une distribution théorique192
II. Comparaison simultanée de plusieurs distributions expérimentales196
III. Comparaison de deux caractères qualitatifs202
Chapitre 7 : Méthodes d'ajustement209
I. Introduction209
II. Comparaison de deux proportions209
1. Méthode de Mantel-Haenszel209
2. Méthode de Cochran212
III. Comparaison de deux moyennes214
Chapitre 8 : Introduction à l'épidémiologie215
I. Introduction215
II. Risque et facteurs de risque215
III. Association statistique et causalité215
1. Association fallacieuse216
2. Association inverse216
3. Association indirecte216
IV. Organisation et résultats des enquêtes217
1. Enquêtes sur échantillon représentatif « Cross-sectional study »218
2. Enquêtes exposé-non exposé ou enquête prospective « Cohort study » ou « Follow-up study »219
3. Enquêtes cas-témoin ou enquête rétrospective « Case-control study »220
4. Enquêtes croisée « Cross-over study »221
5. Essai contrôlé randomisé « Randomized controlled trial »222
V. Risque attribuable225
1. Fraction étiologique chez les exposés225
2. Fraction étiologique dans la population225
VI. Analyse de stratification225
Chapitre 9 : Plan factoriel 2x2230
I. Introduction230
II. Interaction entre deux traitements230
1. Organisation de l'essai230
2. Analyse des données230
2.1. Résultat qualitatif à deux classes : succès ou échec230
2.2. Résultat quantitatif234
III. Interaction ordre et traitement236
1. Organisation de l'essai236
2. Analyse des données236
Chapitre 10 : Evaluation des méthodes diagnostiques244
I. Introduction244
II. Classification des sujets T+ et T- entre les groupes des malades et non malades245
III. Estimation des probabilités246
1. Echantillon représentatif246
2. Echantillon de sujets présentant ou non le signe247
3. Echantillon de malades et de non malades247
IV. Erreurs et risques d'erreurs248
V. Rapports de vraisemblances249
VI. Evaluation des examens diagnostiques dont le résultat est quantitatif251
1. Construction de la courbe R.O.C253
2. Interprétation de la courbe R.O.C253
Chapitre 11 : Analyse de survie256
I. Introduction256
II. Méthodes d'analyses257
1. Méthode de Kaplan-Meier257
2. Courbe de survie259
3. Méthode actuarielle260
4. Courbe de survie262
III. Comparaison de plusieurs courbes de survie265
1. Méthode de Logrank265
2. Méthode de Logrank ajustée271
Chapitre 12 : Corrélation et régression linéaire simple281
I. Corrélation simple281
II. Corrélation partielle284
III. Régression linéaire simple285
1. Corrélation et régression285
2. Qualité de l'ajustement : pourcentage de variance expliquée par la régression286
3. Test de la pente de la droite de régression par l'analyse de la variance287
4. Analyse des résidus288
IV. Test de la linéarité de la régression288
V. Epreuve graphique de la normalité d'une distribution et détermination rapide de la moyenne et de la variance295
Chapitre 13 : Régression linéaire multiple298
I. Introduction298
II. Evaluation globale du modèle299
III. Evaluation individuelle des coefficients de régression301
IV. Coefficient de détermination R2 et coefficient de corrélation R302
V. Analyse des résidus : validation des hypothèses du modèle302
VI. Traitement des données aberrantes (atypiques)308
VII. Sélection des variables explicatives309
1. Procédure ascendante (forward selection)309
2. Procédure descendante (backward elimination)309
3. Procédure pas à pas (stepwise selection)309
VIII. Evaluation d'un modèle réduit310
IX. Evaluation d'un modèle avec quelques variables explicatives fixées310
X. Conclusion311
Chapitre 14 : Analyse de covariance (ANCOVA)312
I. Introduction312
II. Analyse de covariance313
1. Régressions linéaires simples313
2. Parallélisme des droites de régression314
3. Ordonnées à l'origine315
III. Interprétation graphique de l'analyse de covariance322
IV. Conditions d'utilisation de l'analyse de covariance325
Chapitre 15 : Régression logistique327
I. Introduction327
II. Régression logistique simple327
III. Régression logistique multiple328
IV. Etude des données328
V. Estimation des paramètres du modèle329
VI. Evaluation des coefficients de régression330
1. Régression logistique simple330
2. Régression logistique multiple330
VII. Qualité de l'ajustement du modèle331
VIII. Sélection des variables explicatives333
1. Procédure ascendante (forward selection)333
2. Procédure descendante (backward elimination)334
3. Procédure pas à pas (stepwise selection)335
IX. Analyse des résidus336
X. Interprétation des coefficients336
1. Rappels sur le odds ratio OR337
2. Coefficient de régression d'une variable explicative dichotomique337
3. Coefficient de régression d'une variable explicative quantitative338
4. Coefficient de régression d'une variable explicative polytomique338
5. Coefficient de régression de plusieurs variables explicatives340
5.1. Cas d'un modèle non additif340
5.2. Cas d'un modèle additif341
XI. Conclusion342
Chapitre 16 : Analyse en composantes principales (A.C.P)343
I. Introduction343
II. Analyse des données348
1. Réduction des données348
2. Projection des points349
3. Qualité de l'ACP351
4. Contribution et qualité de la représentation351
5. Intérêt de l'ACP356
5.1. Test de sphéricité de Bartlett356
5.2. Test Kaiser-Mayer-Olkin357
6. Conclusion358
Chapitre 17 : Analyse factorielle des correspondances (A.F.C)359
I. Introduction359
II. Analyse des données361
1. Tableaux de contingences361
2. Distance du khi-deux362
3. Principaux indicateurs statistiques utilisés364
3.1. Taux de liaison entre deux caractères364
3.2. Variance de la distribution des observations ou phi-deux de K. Pearson (Phi2)364
4. Méthode d'analyse364
4.1. Propriétés364
4.2. Présentation géométrique des données (sur 2 axes factoriels)365
4.3. Principaux éléments constitutifs de l'AFC366
5. Interprétation des données367
Chapitre 18 : Analyse factorielle des correspondances multiples (A.F.C.M)368
I. Introduction368
II. Présentation des données368
1. Tableau initial368
2. Tableau d'effectifs369
3. Tableau disjonctif complet369
4. Tableau disjonctif des patrons369
5. Tableau de BURT370
III. Analyse factorielle des correspondances multiples371
IV. Analyse et interprétation371
1. Distances entre profils lignes371
2. Distances entre profils colonnes371
3. Phi-deux de K. Pearson372
4. Conclusion372
Chapitre 19 : Tests non paramétriques373
I. Intérêt des tests non paramétriques373
II. Traitement des ex-aequo373
III. Tests non paramétriques373
1. Statistique U de Mann-Whitney374
2. Statistique W de Wilcoxon375
3. Statistique H de Kruskall-Wallis376
4. Statistique S de Friedman379
5. Coefficient de corrélation de Spearman ou rho de Spearman : mesure de corrélation382
6. Coefficient Kappa : mesure de concordance entre observateurs384
7. Statistique exact de Fisher386
8. Statistique de Kolmogorv-Smirnov : ajustement des données à la loi normale388
IV. Conclusion390
Tables numériques391