• Aide
  • Eurêkoi Eurêkoi

Livre

Méthodes statistiques en sciences humaines

Résumé

S'adressant avant tout aux étudiants non spécialisés en mathématiques, l'auteur privilégie une compréhension conceptuelle maximale de l'ensemble des techniques statistiques communément utilisées en sciences sociales et dans les sciences du comportement.


  • Éditeur(s)
  • Date
    • 2008
  • Notes
    • Compléments pédagogiques en ligne (www.howell2.com). - Traduit de : "Statistical methods for psychology". - Traduit de la 6e édition américaine Annexes : Bibliogr. p. 721-729. Index
  • Langues
    • Français
    • , traduit de : Anglais
  • Description matérielle
    • XV-762 p. : ill. ; 28 x 21 cm
  • Collections
  • Titre(s) en relation
  • Sujet(s)
  • ISBN
    • 978-2-8041-5685-5
  • Indice
    • 15.2(07) Psychologie et mathématiques, psychologie et statistiques. Manuels
  • Quatrième de couverture
    • Le manuel de référence en statistiques pour tous les étudiants en sciences humaines

      • Conçu pour les étudiants non spécialisés en mathématiques, cet ouvrage vise à fournir une compréhension conceptuelle maximale de l'ensemble des techniques statistiques communément utilisées en sciences sociales et dans les sciences du comportement. Il allie un ton engageant à la rigueur scientifique. Ses autres atouts sont la place importante accordée aux techniques descriptives, le recours fréquent à des exemples concrets permettant de souligner les liens entre les questions de recherche et les tests statistiques et la présence de nombreux exercices corrigés.
      • Bénéficiant d'un appareil pédagogique particulièrement développé, ce manuel offre à l'étudiant :
      • Dans chaque chapitre :

        • Une liste de mots clés
        • Des exercices
        • Des questions de discussion

        En fin d'ouvrage :

        • La bibliographie générale
        • Les réponses aux exercices
        • L'index.
      • Par ses qualités, cet ouvrage s'impose comme une source de référence indispensable, tant pendant qu'après le cursus universitaire.

  • Tables des matières
      • Méthodes statistiques en sciences humaines

      • David C. Howell

      • De Boeck

      • Préface de l'auteur xvii
      • Au sujet de l'auteur xxi
      • Chapitre 1 Concepts de base 1
      • 1.1 Termes importants2
      • 1.2 Statistique descriptive et inférence statistique5
      • 1.3 Échelles de mesure5
      • 1.4 Utilisation des ordinateurs9
      • 1.5 Plan du livre10
      • Chapitre 2 Description et exploration des données 15
      • 2.1 Représentation graphique de données17
      • 2.2 Histogrammes19
      • 2.3 Diagrammes en tiges et feuilles21
      • 2.4 Méthodes alternatives de représentation graphique des données23
      • 2.5 Description de distributions26
      • 2.6 Utilisation de programmes informatiques pour représenter les données29
      • 2.7 Notation31
      • 2.8 Mesures de tendance centrale33
      • 2.9 Mesures de variabilité39
      • 2.10 Diagrammes en forme de boîte : représentations graphiques de dispersions et scores extrêmes51
      • 2.11 Obtention de mesures de dispersion en utilisant Minitab55
      • 2.12 Pourcentiles, quartiles et déciles56
      • 2.13 L'effet de transformations linéaires sur les données57
      • Chapitre 3 La distribution normale 67
      • 3.1 La distribution normale70
      • 3.2 La distribution normale réduite73
      • 3.3 Utilisation des tables de la distribution normale réduite75
      • 3.4 Fixation de limites probables à une observation77
      • 3.5. Mesures liées à z79
      • Chapitre 4 Distributions d'échantillonnage et tests d'hypothèse 83
      • 4.1 Deux exemples simples impliquant l'évaluation de cours et des automobilistes grossiers84
      • 4.2 Distributions d'échantillonnage86
      • 4.3 La théorie du test d'hypothèse88
      • 4.4 L'hypothèse nulle91
      • 4.5 Les statistiques de test et leurs distributions d'échantillonnage93
      • 4.6 Utilisation de la distribution normale pour tester des hypothèses94
      • 4.7 Erreurs de type I et de type II97
      • 4.8 Tests unilatéraux et bilatéraux100
      • 4.9 Que signifie le fait de rejeter l'hypothèse nulle ?102
      • 4.10 Une autre conception du test d'hypothèse103
      • 4.11 Taille d'effet105
      • 4.12 Un exemple final106
      • 4.13 Retour à l'évaluation des cours et aux automobilistes grossiers107
      • Chapitre 5 Concepts de base des probabilités 111
      • 5.1 Probabilités112
      • 5.2 Terminologie et règles de base113
      • 5.3 Variables discrètes et continues118
      • 5.4 Distributions de probabilité pour les variables discrètes118
      • 5.5 Distributions de probabilité pour les variables continues119
      • 5.6 Permutations et combinaisons121
      • 5.7 Le théorème de Bayes124
      • 5.8 La distribution binomiale127
      • 5.9 Utilisation de la distribution binomiale pour tester des hypothèses131
      • 5.10 La distribution multinomiale134
      • Chapitre 6 Données catégorielles et khi-carré 139
      • 6.1 La distribution khi-carré140
      • 6.2 Le test khi-carré d'ajustement - classification à un facteur142
      • 6.3 Deux variables de classification : analyse des tables de contingence145
      • 6.4 Le khi-carré pour de plus grandes tables de contingence148
      • 6.5 Le khi-Carré pour des données ordinales152
      • 6.6 Résumé des conditions d'application du khi-carré152
      • 6.7 Tests unilatéraux et bilatéraux154
      • 6.8 Tests des rapports de vraisemblance155
      • 6.9 Les tailles d'effet156
      • 6.10 Mesures d'accord161
      • 6.11 Communiquer les résultats163
      • Chapitre 7 Le test d'hypothèse appliqué aux moyennes 173
      • 7.1 Distribution d'échantillonnage de la moyenne174
      • 7.2 Le test d'hypothèse sur les moyennes - Sigma connu176
      • 7.3 Tester une moyenne d'échantillon lorsque Sigma est inconnu - le test t sur un échantillon179
      • 7.4 Le test d'hypothèse appliqué aux moyennes - deux échantillons pairés188
      • 7.5 Le test d'hypothèse appliqué aux moyennes - deux échantillons indépendants197
      • 7.6 Un exemple final205
      • 7.7 Hétérogénéité des variances : le problème de Behrens-Fisher207
      • 7.8 Le test d'hypothèse revisité210
      • Chapitre 8 La puissance 217
      • 8.1 Facteurs influençant la puissance d'un test219
      • 8.2 Taille de l'effet221
      • 8.3 Calculs de la puissance pour le test t sur un échantillon223
      • 8.4 Calculs de la puissance pour les différences entre deux moyennes indépendantes225
      • 8.5 Calculs de la puissance pour le test t sur échantillons pairés229
      • 8.6 Considérations sur la puissance en termes de tailles d'échantillon231
      • 8.7 Puissance rétrospective231
      • 8.8 Communiquer les résultats d'une analyse de puissance.233
      • Chapitre 9 Corrélation et régression 237
      • 9.1 Le diagramme de dispersion239
      • 9.2 La relation entre le stress et la santé241
      • 9.3 La covariance243
      • 9.4 Le coefficient de corrélation du produit des moments de Pearson (r)244
      • 9.5 La droite de régression246
      • 9.6 L'exactitude de la prédiction250
      • 9.7 Les conditions d'application sous-tendant la corrélation et la régression257
      • 9.8 Limites de confiance de y258
      • 9.9 Un exemple sur ordinateur montrant le rôle des capacités à passer des tests260
      • 9.10 Le test d'hypothèse263
      • 9.11 Le rôle des conditions d'application dans la corrélation et la régression271
      • 9.12 Les facteurs influençant la corrélation272
      • 9.13 Calcul de la puissance pour le r de Pearson274
      • Chapitre 10 Techniques alternatives de corrélation 283
      • 10.1 Corrélation bisérielle de point et phi : autres noms pour le coefficient de corrélation de Pearson285
      • 10.2 Corrélation bisérielle et tétrachorique : coefficients de corrélation différents de celui de Pearson293
      • 10.3 Coefficients de corrélation pour données rangées294
      • 10.4 Analyse des tables de contingence avec des variables ordinales297
      • 10.5 Le coefficient de concordance de Kendall (W)300
      • Chapitre 11 L'analyse simple de variance 305
      • 11.1 Exemple306
      • 11.2 Le modèle sous-jacent307
      • 11.3 La logique de l'analyse de variance310
      • 11.4 Calculs de l'analyse de variance312
      • 11.5 Communiquer les résultats318
      • 11.6 Solutions par ordinateur318
      • 11.7 Dérivation de l'analyse de variance321
      • 11.8 Échantillons de tailles inégales323
      • 11.9 Violation des conditions d'application325
      • 11.10 Transformations327
      • 11.11 Modèles fixes et modèles aléatoires334
      • 11.12 Grandeur de l'effet expérimental335
      • 11.13 La puissance339
      • 11.14 Analyses par ordinateur346
      • Chapitre 12 Comparaisons multiples entre des moyennes de traitement 353
      • 12.1 Les taux d'erreur354
      • 12.2 Les comparaisons multiples dans une expérience simple sur la tolérance à la morphine357
      • 12.3 Les comparaisons a priori359
      • 12.4 Intervalles de confiance et tailles d'effet pour les contrastes375
      • 12.5 Communiquer les résultats378
      • 12.6 Les comparaisons a posteriori380
      • 12.7 Le test de Tukey382
      • 12.8 La procédure de Ryan (REGWQ)385
      • 12.9 Le test de Scheffé386
      • 12.10 Le test de Dunnett pour comparer tous les traitements à un groupe témoin386
      • 12.11 Comparaison des différentes procédures388
      • 12.12 Quel test choisir ?389
      • 12.13 Solutions par ordinateur389
      • 12.14 L'analyse de tendances393
      • Chapitre 13 L'analyse factorielle de variance 403
      • 13.1 Extension de l'étude d'Eysenck406
      • 13.2 Modèles structurels et carrés moyens attendus411
      • 13.3 Interactions412
      • 13.4 Effets simples414
      • 13.5 L'analyse de variance appliquée aux effets du tabagisme417
      • 13.6 Comparaisons multiples419
      • 13.7 Analyse de la puissance pour des expériences factorielles421
      • 13.8 Carrés moyens attendus423
      • 13.9 Mesures d'association et taille d'effet426
      • 13.10 Communiquer les résultats434
      • 13.11 Échantillons de tailles inégales434
      • 13.12 Analyse d'échantillons de tailles inégales via SAS440
      • 13.13 Plans factoriels d'ordre supérieur441
      • 13.14 Exemple par ordinateur448
      • Chapitre 14 Les plans à mesures répétées 455
      • 14.1 Le modèle structurel458
      • 14.2 Rapports F458
      • 14.3 La matrice des covariances459
      • 14.4 L'analyse de variance appliquée à la relaxothérapie460
      • 14.5 Contrastes et tailles d'effet dans les plans à mesures répétées463
      • 14.6 Communiquer les résultats465
      • 14.7 Une variable inter-sujets et une variable intra-sujets465
      • 14.8 Deux variables inter-sujets et une variable intra-sujets477
      • 14.9 Deux variables intra-sujets et une variable inter-sujets483
      • 14.10 Corrélation intra-classe491
      • 14.11 Considérations diverses493
      • 14.12 Analyse par ordinateur utilisant une approche traditionnelle495
      • 14.13 Analyse multivariée de la variance pour les plans à mesures répétées497
      • Chapitre 15 La régression multiple 509
      • 15.1 La régression linéaire multiple510
      • 15.2 Erreurs standard et tests des coefficients de régression518
      • 15.3 La variance résiduelle520
      • 15.4 Conditions d'application relatives aux distributions520
      • 15.5 Le coefficient de corrélation multiple521
      • 15.6 Représentation géométrique de la régression multiple523
      • 15.7 Corrélation partielle et semi-partielle527
      • 15.8 Variables éliminatrices532
      • 15.9 Diagnostics de régression533
      • 15.10 Construction d'une équation de régression538
      • 15.11 L'«importance» des différentes variables544
      • 15.12 Utilisation de coefficients de régression approximatifs545
      • 15.13 Relations de médiation et de modération546
      • 15.14 La régression logistique554
      • Chapitre 16 Les analyses de variance et de covariance comme modèles linéaires généraux 573
      • 16.1 Le modèle linéaire général574
      • 16.2 L'analyse de variance à un critère de classification577
      • 16.3 Plans factoriels580
      • 16.4 L'analyse de variance avec des échantillons de tailles inégales587
      • 16.5 L'analyse de covariance à un critère de classification593
      • 16.6 Le calcul des tailles d'effet dans l'analyse de covariance602
      • 16.7 Interprétation d'une analyse de covariance606
      • 16.8 Communiquer les résultats d'une analyse de covariance607
      • 16.9 L'analyse de covariance à plusieurs facteurs607
      • 16.10 Utilisation de covariées multiples616
      • 16.11 Plans expérimentaux alternatifs617
      • Chapitre 17 L'analyse log-linéaire 623
      • 17.1 Les tables de contingence à deux dimensions625
      • 17.2 Spécifications des modèles630
      • 17.3 Test des modèles633
      • 17.4 Chances et rapports de cotes637
      • 17.5 Effets du traitement (lambda)637
      • 17.6 Les tables à trois dimensions638
      • 17.7 Dérivation des modèles644
      • 17.8 Les effets du traitement646
      • Chapitre 18 Approches de ré-échantillonnage et non paramétriques des données 655
      • 18.1 Le bootstrap comme approche générale658
      • 18.2 Le bootstrap avec un échantillon659
      • 18.3 Ré-échantillonner avec deux échantillons appariés662
      • 18.4 Ré-échantillonner avec deux échantillons indépendants663
      • 18.5 Les limites de confiance bootstrap sur un coefficient de corrélation667
      • 18.6 Le test de la somme des rangs de Wilcoxon670
      • 18.7 Le test des rangs pour échantillons pairés de Wilcoxon675
      • 18.8 Le test du signe679
      • 18.9 L'analyse de variance à un critère de classification de Kruskal-Wallis680
      • 18.10 Le test des rangs de Friedman pour k échantillons non indépendants682
      • Annexes 687
      • Bibliographie 721
      • Réponses à certains exercices 731
      • Index 749

  • Origine de la notice:
    • Electre
  • Disponible - 15.2(07) HOW

    Niveau 2 - Psychologie