• Aide
  • Eurêkoi Eurêkoi

Livre

Statistiques médicales et biologiques

Résumé

L'auteur expose le programme de statistique des premières années de médecine, de pharmacie, de chirurgie dentaire et de biologie. Cours et exercices de biostatistiques.


  • Éditeur(s)
  • Date
    • 2010
  • Langues
    • Français
  • Description matérielle
    • 409 p. ; 26 x 18 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 978-2-7298-5345-7
  • Indice
    • 519.4 Statistique appliquée, sondages
  • Quatrième de couverture
    • Le présent ouvrage est tout particulièrement destiné aux étudiants en médecine, en pharmacie, en chirurgie dentaire et en biologie, ainsi qu'aux chercheurs des disciplines médicales et biologiques désirant compléter leur travail de recherche par des méthodes statistiques ou s'initier à des méthodes statistiques plus approfondies.

      L'auteur a voulu exposer, de manière élémentaire, le programme de statistique des premières années de médecine, de pharmacie, de chirurgie dentaire et de biologie (statistique descriptive, statistique probabiliste et les six premiers chapitres de la statistique inductive) et approfondir suffisamment ces programmes pour permettre aux chercheurs d'effectuer le traitement des données recueillies au cours d'observations de phénomènes (à partir du septième chapitre de la statistique inductive). Chaque chapitre de cet ouvrage contient de nombreux exemples basés sur des situations rencontrées dans la discipline médicale et biologique. Certaines notions ont été détaillées jusqu'à déborder légèrement le programme. La plupart des démonstrations ont été évitées car elles nécessitent des connaissances mathématiques très profondes que l'on ne peut exiger des étudiants en médecine, en pharmacie, en chirurgie dentaire et en biologie. La lecture de cet ouvrage ne nécessite aucune connaissance de mathématiques à l'exception de quelques notions très simples de l'enseignement secondaire.


  • Tables des matières
      • Statistiques médicales et biologiques

      • Fethi Borsali

      • ellipses

      • Partie 1 : Statistique descriptive
      • Chapitre 1 : Etude univariée12
      • I. Généralités et définitions12
      • 1. Le recueil des données12
      • 2. La présentation des données13
      • 3. L'analyse des données13
      • 4. La fiabilité des résultats13
      • II. Présentation numérique et graphique13
      • 1. Caractère quantitatif discret13
      • 2. Caractère quantitatif continu16
      • 3. Caractère qualitatif19
      • III. Paramètres caractéristiques22
      • 1. Paramètres de position22
      • 1.1. Moyenne arithmétique22
      • 1.2. Mode24
      • 1.3. Médiane24
      • 1.4. Quartiles25
      • 1.5. Déciles27
      • 1.6. Centiles27
      • 1.7. Représentation graphique « Box Plot »27
      • 2. Paramètres de dispersion30
      • 2.1. Variance30
      • 2.2. Ecart-type30
      • 2.3. Signification de la variance (ou de l'écart-type)31
      • 2.4. Ecart-interquartile32
      • 2.5. Coefficient de dispersion32
      • 3. Paramètres de forme32
      • 3.1. Moments32
      • 3.2. Coefficient d'asymétrie33
      • 3.3. Coefficient de dérive34
      • 3.4. Coefficient d'aplatissement34
      • IV. Conclusion35
      • Chapitre 2 : Etude bivariée36
      • I. Introduction36
      • II. Ajustement linéaire37
      • 1. Droite de régression de y par rapport à x38
      • 2. Droite de régression de x par rapport à y38
      • 3. Covariance39
      • 4. Détermination des coefficients39
      • 5. Coefficient de corrélation de Pearson40
      • 6. Interprétation concrète du coefficient de corrélation40
      • 7. Coefficient de corrélation et type de corrélation42
      • III. Ajustement non linéaire45
      • IV. Représentation par un tableau de contingence47
      • V. Conclusion51
      • Partie 2 : Statistique probabiliste
      • Chapitre 1 : Eléments d'analyse combinatoire et calcul de probabilités52
      • I. Analyse combinatoire52
      • 1. Généralités52
      • 2. Arrangements53
      • 2.1. Arrangements sans répétition53
      • 2.2. Arrangements avec répétition53
      • 3. Permutations54
      • 3.1. Permutations sans répétition54
      • 3.2. Permutations avec répétition54
      • 4. Combinaisons54
      • 4.1. Combinaisons sans répétition54
      • 4.2. Combinaisons avec répétition55
      • 5. Binôme de Newton56
      • II. Calcul de probabilités57
      • 1. Généralités et définitions57
      • 2. Notion d'événement57
      • 3. Définition d'une probabilité58
      • 3.1. Définition classique58
      • 3.2. Définition statistique59
      • 3.3. Remarque importante59
      • 3.4. Quelques exemples59
      • 4. Opérations sur les événements60
      • 5. Axiomes des probabilités61
      • 6. Probabilités composées62
      • 6.1. Evénements dépendants. Probabilités conditionnelles62
      • 6.2. Evénements indépendants63
      • 7. Probabilités totales générales64
      • 8. Probabilités complètes64
      • 9. Probabilités des causes66
      • Chapitre 2 : Variables aléatoires réelles69
      • I. Introduction et définition69
      • 1. Exemple préliminaire69
      • 2. Définition70
      • II. Variables aléatoires discrètes70
      • 1. Définition70
      • 2. Loi de probabilité70
      • 3. Fonction de distribution71
      • III. Variables aléatoires continues72
      • 1. Définition72
      • 2. Loi de probabilité72
      • 3. Fonction de distribution72
      • 4. Fonction densité ou densité de probabilité72
      • IV. Caractéristiques d'une variable aléatoire74
      • 1. Espérance mathématique74
      • 2. Variance75
      • 3. Ecart-type75
      • 4. Covariance76
      • V. Inégalité de Bienayme-Tchebicheff76
      • 1. Interprétation de l'inégalité de Bienayme-Tchebicheff77
      • 2. Signification de la variance (ou de l'écart-type)77
      • Chapitre 3 : Lois de probabilité fondamentales79
      • I. Généralités et définitions79
      • II. Loi binomiale79
      • 1. Définition79
      • 2. Espérance mathématique et variance80
      • 3. Généralisation de la loi binomiale : loi multinomiale81
      • 4. Loi faible des grands nombres de Jacob Bernoulli81
      • III. Loi hypergéométrique83
      • 1. Définition83
      • 2. Espérance mathématique et variance83
      • 3. Approximation d'une loi hypergéométrique à une loi de binomiale83
      • IV. Loi de Poisson83
      • 1. Phénomènes qui suivent la loi de Poisson84
      • 2. Définition85
      • 3. Espérance mathématique et variance85
      • 4. Approximation d'une loi binomiale à une loi de Poisson85
      • V. Loi exponentielle86
      • 1. Définition86
      • 2. Espérance mathématique et variance86
      • 3. Phénomènes qui suivent la loi exponentielle86
      • 4. Fonction de survie87
      • VI. Loi de Laplace-Gauss ou loi normale87
      • 1. Phénomènes qui suivent la loi normale87
      • 2. Définition92
      • 3. Espérance mathématique et variance92
      • 4. Etude des caractères biologiques92
      • 5. Loi normale centrée réduite93
      • 6. Utilisation de la table94
      • 7. Propriétés de la loi normale96
      • 8. Approximation d'une loi binomiale à une loi normale97
      • Partie 3 : Statistique inductive
      • Chapitre 1 : Jugement sur échantillons99
      • I. Introduction99
      • II. Fluctuations d'échantillonnage100
      • III. Interprétation statistique100
      • 1. Les problèmes d'estimation100
      • 2. Les problèmes de conformité101
      • 3. Les problèmes d'homogénéité101
      • 4. Les problèmes de relation102
      • IV. Remarque sur la distribution du caractère103
      • V. Conclusion103
      • Chapitre 2 : Echantillonnage et estimation104
      • I. Généralités et définitions104
      • II. Distribution d'échantillonnage et intervalle de confiance d'une moyenne104
      • A. Cas des grands échantillons (n (...) 30)104
      • 1. Distribution d'échantillonnage d'une moyenne104
      • 2. Intervalle de confiance d'une moyenne106
      • 3. Précision de l'estimation107
      • 4. Détermination du nombre d'individus nécessaire108
      • B. Cas des petits échantillons (n < 30)109
      • 1. Distribution d'échantillonnage d'une moyenne109
      • 2. Intervalle de confiance d'une moyenne110
      • III. Distribution d'échantillonnage et intervalle de confiance d'une proportion112
      • 1. Distribution d'échantillonnage d'une proportion112
      • 2. Intervalle de confiance d'une proportion114
      • 3. Précision de l'estimation115
      • 4. Détermination du nombre d'individus nécessaire116
      • Chapitre 3 : Théorie des tests statistiques118
      • I. Position du problème118
      • II. Erreurs et risques d'erreurs119
      • III. Degré de signification123
      • IV. Puissance du test124
      • 1. Influence de l'hypothèse alternative124
      • 2. Influence de la taille de l'échantillon125
      • V. Détermination du nombre de sujets nécessaire126
      • 1. Comparaison entre deux moyennes126
      • 2. Comparaison entre deux proportions127
      • VI. Inflation du risque d'erreur de première espèce128
      • Chapitre 4 : Comparaison de moyennes et de proportions131
      • I. Comparaison de moyennes131
      • 1. Comparaison d'une moyenne observée à une moyenne théorique131
      • 2. Comparaison de deux moyennes pour des observations indépendantes133
      • 3. Comparaison de deux moyennes pour des observations appariées141
      • II. Comparaison de deux proportions145
      • 1. Comparaison d'une proportion observée à une proportion théorique145
      • 2. Comparaison de deux proportions pour des observations indépendantes147
      • 3. Comparaison de deux proportions pour des observations appariées150
      • Chapitre 5 : Analyse de la variance (ANOVA)157
      • I. Introduction157
      • II. Analyse de la variance à un facteur (ANOVA à un facteur)157
      • 1. Définitions158
      • 2. Décomposition de la variance totale159
      • 3. Estimation de la variance totale159
      • 4. Test F de Fisher-Snedecor160
      • 5. Analyse des comparaisons a postériori - Méthode de Scheffe-162
      • 6. Taille de l'effet et la statistique êta au carré (n2)170
      • III. Analyse de la variance à deux facteurs (ANOVA à deux facteurs)170
      • 1. Plan d'ordre deux à une répétition170
      • 1.1. Position du problème171
      • 1.2. Décomposition de la variance totale173
      • 1.3. Test F de Fisher-Snedecor173
      • 2. Plan d'ordre deux à plusieurs répétitions178
      • 2.1. Position du problème178
      • 2.2. Décomposition de la variance totale181
      • 2.3. Test F de Fisher-Snedecor181
      • IV. Analyse des comparaisons a priori dans l'ANOVA à un facteur184
      • 1. Contrastes orthogonaux185
      • 2. Inflation du risque d'erreur186
      • 3. Analyse des comparaisons a priori186
      • 3.1. Contrastes orthogonaux188
      • 3.2. Contrastes orthogonaux188
      • V. Conclusion191
      • Chapitre 6 : Test de khi-deux ou test de K. Pearson192
      • I. Comparaison d'une distribution expérimentale a une distribution théorique192
      • II. Comparaison simultanée de plusieurs distributions expérimentales196
      • III. Comparaison de deux caractères qualitatifs202
      • Chapitre 7 : Méthodes d'ajustement209
      • I. Introduction209
      • II. Comparaison de deux proportions209
      • 1. Méthode de Mantel-Haenszel209
      • 2. Méthode de Cochran212
      • III. Comparaison de deux moyennes214
      • Chapitre 8 : Introduction à l'épidémiologie215
      • I. Introduction215
      • II. Risque et facteurs de risque215
      • III. Association statistique et causalité215
      • 1. Association fallacieuse216
      • 2. Association inverse216
      • 3. Association indirecte216
      • IV. Organisation et résultats des enquêtes217
      • 1. Enquêtes sur échantillon représentatif « Cross-sectional study »218
      • 2. Enquêtes exposé-non exposé ou enquête prospective « Cohort study » ou « Follow-up study »219
      • 3. Enquêtes cas-témoin ou enquête rétrospective « Case-control study »220
      • 4. Enquêtes croisée « Cross-over study »221
      • 5. Essai contrôlé randomisé « Randomized controlled trial »222
      • V. Risque attribuable225
      • 1. Fraction étiologique chez les exposés225
      • 2. Fraction étiologique dans la population225
      • VI. Analyse de stratification225
      • Chapitre 9 : Plan factoriel 2x2230
      • I. Introduction230
      • II. Interaction entre deux traitements230
      • 1. Organisation de l'essai230
      • 2. Analyse des données230
      • 2.1. Résultat qualitatif à deux classes : succès ou échec230
      • 2.2. Résultat quantitatif234
      • III. Interaction ordre et traitement236
      • 1. Organisation de l'essai236
      • 2. Analyse des données236
      • Chapitre 10 : Evaluation des méthodes diagnostiques244
      • I. Introduction244
      • II. Classification des sujets T+ et T- entre les groupes des malades et non malades245
      • III. Estimation des probabilités246
      • 1. Echantillon représentatif246
      • 2. Echantillon de sujets présentant ou non le signe247
      • 3. Echantillon de malades et de non malades247
      • IV. Erreurs et risques d'erreurs248
      • V. Rapports de vraisemblances249
      • VI. Evaluation des examens diagnostiques dont le résultat est quantitatif251
      • 1. Construction de la courbe R.O.C253
      • 2. Interprétation de la courbe R.O.C253
      • Chapitre 11 : Analyse de survie256
      • I. Introduction256
      • II. Méthodes d'analyses257
      • 1. Méthode de Kaplan-Meier257
      • 2. Courbe de survie259
      • 3. Méthode actuarielle260
      • 4. Courbe de survie262
      • III. Comparaison de plusieurs courbes de survie265
      • 1. Méthode de Logrank265
      • 2. Méthode de Logrank ajustée271
      • Chapitre 12 : Corrélation et régression linéaire simple281
      • I. Corrélation simple281
      • II. Corrélation partielle284
      • III. Régression linéaire simple285
      • 1. Corrélation et régression285
      • 2. Qualité de l'ajustement : pourcentage de variance expliquée par la régression286
      • 3. Test de la pente de la droite de régression par l'analyse de la variance287
      • 4. Analyse des résidus288
      • IV. Test de la linéarité de la régression288
      • V. Epreuve graphique de la normalité d'une distribution et détermination rapide de la moyenne et de la variance295
      • Chapitre 13 : Régression linéaire multiple298
      • I. Introduction298
      • II. Evaluation globale du modèle299
      • III. Evaluation individuelle des coefficients de régression301
      • IV. Coefficient de détermination R2 et coefficient de corrélation R302
      • V. Analyse des résidus : validation des hypothèses du modèle302
      • VI. Traitement des données aberrantes (atypiques)308
      • VII. Sélection des variables explicatives309
      • 1. Procédure ascendante (forward selection)309
      • 2. Procédure descendante (backward elimination)309
      • 3. Procédure pas à pas (stepwise selection)309
      • VIII. Evaluation d'un modèle réduit310
      • IX. Evaluation d'un modèle avec quelques variables explicatives fixées310
      • X. Conclusion311
      • Chapitre 14 : Analyse de covariance (ANCOVA)312
      • I. Introduction312
      • II. Analyse de covariance313
      • 1. Régressions linéaires simples313
      • 2. Parallélisme des droites de régression314
      • 3. Ordonnées à l'origine315
      • III. Interprétation graphique de l'analyse de covariance322
      • IV. Conditions d'utilisation de l'analyse de covariance325
      • Chapitre 15 : Régression logistique327
      • I. Introduction327
      • II. Régression logistique simple327
      • III. Régression logistique multiple328
      • IV. Etude des données328
      • V. Estimation des paramètres du modèle329
      • VI. Evaluation des coefficients de régression330
      • 1. Régression logistique simple330
      • 2. Régression logistique multiple330
      • VII. Qualité de l'ajustement du modèle331
      • VIII. Sélection des variables explicatives333
      • 1. Procédure ascendante (forward selection)333
      • 2. Procédure descendante (backward elimination)334
      • 3. Procédure pas à pas (stepwise selection)335
      • IX. Analyse des résidus336
      • X. Interprétation des coefficients336
      • 1. Rappels sur le odds ratio OR337
      • 2. Coefficient de régression d'une variable explicative dichotomique337
      • 3. Coefficient de régression d'une variable explicative quantitative338
      • 4. Coefficient de régression d'une variable explicative polytomique338
      • 5. Coefficient de régression de plusieurs variables explicatives340
      • 5.1. Cas d'un modèle non additif340
      • 5.2. Cas d'un modèle additif341
      • XI. Conclusion342
      • Chapitre 16 : Analyse en composantes principales (A.C.P)343
      • I. Introduction343
      • II. Analyse des données348
      • 1. Réduction des données348
      • 2. Projection des points349
      • 3. Qualité de l'ACP351
      • 4. Contribution et qualité de la représentation351
      • 5. Intérêt de l'ACP356
      • 5.1. Test de sphéricité de Bartlett356
      • 5.2. Test Kaiser-Mayer-Olkin357
      • 6. Conclusion358
      • Chapitre 17 : Analyse factorielle des correspondances (A.F.C)359
      • I. Introduction359
      • II. Analyse des données361
      • 1. Tableaux de contingences361
      • 2. Distance du khi-deux362
      • 3. Principaux indicateurs statistiques utilisés364
      • 3.1. Taux de liaison entre deux caractères364
      • 3.2. Variance de la distribution des observations ou phi-deux de K. Pearson (Phi2)364
      • 4. Méthode d'analyse364
      • 4.1. Propriétés364
      • 4.2. Présentation géométrique des données (sur 2 axes factoriels)365
      • 4.3. Principaux éléments constitutifs de l'AFC366
      • 5. Interprétation des données367
      • Chapitre 18 : Analyse factorielle des correspondances multiples (A.F.C.M)368
      • I. Introduction368
      • II. Présentation des données368
      • 1. Tableau initial368
      • 2. Tableau d'effectifs369
      • 3. Tableau disjonctif complet369
      • 4. Tableau disjonctif des patrons369
      • 5. Tableau de BURT370
      • III. Analyse factorielle des correspondances multiples371
      • IV. Analyse et interprétation371
      • 1. Distances entre profils lignes371
      • 2. Distances entre profils colonnes371
      • 3. Phi-deux de K. Pearson372
      • 4. Conclusion372
      • Chapitre 19 : Tests non paramétriques373
      • I. Intérêt des tests non paramétriques373
      • II. Traitement des ex-aequo373
      • III. Tests non paramétriques373
      • 1. Statistique U de Mann-Whitney374
      • 2. Statistique W de Wilcoxon375
      • 3. Statistique H de Kruskall-Wallis376
      • 4. Statistique S de Friedman379
      • 5. Coefficient de corrélation de Spearman ou rho de Spearman : mesure de corrélation382
      • 6. Coefficient Kappa : mesure de concordance entre observateurs384
      • 7. Statistique exact de Fisher386
      • 8. Statistique de Kolmogorv-Smirnov : ajustement des données à la loi normale388
      • IV. Conclusion390
      • Tables numériques391

  • Origine de la notice:
    • Electre
  • Disponible - 519.4 BOR

    Niveau 2 - Sciences