• Aide
  • Eurêkoi Eurêkoi

Livre

Statistiques pour les sciences environnementales

Résumé

L'auteure appréhende l'utilisation des statistiques en explicitant l'esprit relatif à leurs conceptions, présente les analyses les plus utilisées en sciences environnementales, leurs principes, leurs avantages et leurs inconvénients, leur mise en place via le logiciel R et leurs interprétations dans le domaine des sciences environnementales. ©Electre 2019


  • Éditeur(s)
  • Date
    • cop. 2019
  • Notes
    • Bibliogr. p. [287]-288. Index
  • Langues
    • Français
  • Description matérielle
    • 1 vol. (X-293 p.) : ill. en coul., graph. ; 24 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 978-1-78405-531-8
  • Indice
  • Quatrième de couverture
    • L'outil statistique est devenu indispensable pour les sciences environnementales. Il s'insère à part entière dans la démarche scientifique depuis l'élaboration du plan d'échantillonnage jusqu'à l'obtention des résultats.

      Statistiques pour les sciences environnementales présente les notions fondamentales en statistiques (vocabulaire de base, principales lois de probabilités, etc.), et décrit la conception de plans d'échantillonnage et de plans expérimentaux. Il introduit également les grands principes des tests statistiques tels que la théorie de la décision, et offre des clefs permettant de choisir un test en adéquation avec les objectifs établis.

      Cet ouvrage traite des statistiques les plus usitées dans le domaine des sciences environnementales. Leur description est détaillée à partir d'exemples concrets et à travers l'utilisation du logiciel libre R dont l'utilisation est également présentée.


  • Tables des matières
      • Statistiques pour les sciences environnementales

      • Valérie David

      • iSTE editions

      • Avant-propos. Les statistiques : des outils indispensables à considérer avec rigueur1
      • Introduction3
      • Chapitre 1. Travailler avec le logiciel R19
      • 1.1. Travailler avec le logiciel R19
      • 1.1.1. Pourquoi et comment travailler avec le logiciel R ?19
      • 1.1.2. Méthode de travail recommandée20
      • 1.1.2.1. Créer un répertoire de travail20
      • 1.1.2.2. Utiliser et classifier son travail sous la forme de scripts21
      • 1.1.3. Trouver de l'aide sous R21
      • 1.1.3.1. Pour débuter et se perfectionner sur des domaines particuliers21
      • 1.1.3.2. Pour chercher comment faire un test particulier ou un graphique22
      • 1.1.3.3. Usage24
      • 1.1.3.4. Autres possibilités24
      • 1.2. Opérations de base pour les statistiques sous R24
      • 1.2.1. Manipuler le jeu de données sous R24
      • 1.2.1.1. Opérations pour une suite de nombres, soit une variable24
      • 1.2.1.2. Observation d'un jeu de données25
      • 1.2.1.3. Opérations sur les variables27
      • 1.2.1.4. Sélection et fusion de jeux de données28
      • 1.2.1.5. Importation/Exportation d'un jeu de données29
      • 1.2.2. Formater le jeu de données30
      • 1.2.3. Ordonner le jeu de données31
      • 1.2.4. Tableaux croisés dynamiques31
      • 1.3. Quelques graphiques pour résumer le jeu de données34
      • 1.3.1. Affichage des graphiques34
      • 1.3.2. Graphiques simples (plots)34
      • 1.3.3. Histogrammes36
      • 1.3.4. Boîtes à moustaches (boxplots)37
      • 1.3.5. Diagrammes en barres (barplots)40
      • 1.3.6. Représentations par paires42
      • 1.3.7. Représentation graphique de diagrammes de contingence44
      • 1.3.8. Étude de la dispersion et de l'interaction des données sur modèle équilibré et croisé46
      • Chapitre 2. Notions fondamentales en statistique49
      • 2.1. Le vocabulaire de base en statistique49
      • 2.1.1. Élément, population, échantillon49
      • 2.1.2. Variables51
      • 2.2. Résumer un échantillon53
      • 2.2.1. Paramètres de tendance centrale53
      • 2.2.2. Paramètres de dispersion56
      • 2.3. Les lois de probabilité57
      • 2.3.1. Distribution normale ou loi de Laplace Gauss60
      • 2.3.1.1. Les propriétés de la loi normale : notion d'intervalles de confiance60
      • 2.3.1.2. Inclusion des données entre deux intervalles : estimation de la probabilité62
      • 2.3.2. Les autres lois de probabilités utiles66
      • Chapitre 3. Concevoir un plan d'échantillonnage ou un plan d'expérience69
      • 3.1. Les plans d'échantillonnage69
      • 3.1.1. Principe et critères à respecter69
      • 3.1.2. Généralisation et fiabilité du plan73
      • 3.1.3. Les variantes d'un échantillonnage aléatoire73
      • 3.1.3.1. Inconvénient d'un échantillonnage aléatoire simple74
      • 3.1.3.2. Échantillonnage aléatoire stratifié74
      • 3.1.3.3. Échantillonnage aléatoire en grappes75
      • 3.1.3.4. Échantillonnage aléatoire systématique77
      • 3.2. Les plans expérimentaux78
      • 3.2.1. Principe et critères à respecter78
      • 3.2.2. Généralisation et sensibilité du plan80
      • 3.2.3. Les différents plans expérimentaux81
      • 3.2.3.1. Les plans expérimentaux à un facteur contrôlé81
      • 3.2.3.2. Les plans expérimentaux à plusieurs facteurs contrôlés82
      • 3.2.3.3. Les plans expérimentaux à effet de bloc83
      • 3.2.4. Plans expérimentaux et réalité terrain : des choix cruciaux à considérer pour les analyses statistiques84
      • 3.2.4.1. Plans équilibrés et plans déséquilibrés86
      • 3.2.4.2. Facteurs fixes et facteurs aléatoires86
      • 3.2.4.3. Plans croisés et plans hiérarchisés86
      • 3.2.4.4. Plans additifs et plans avec interaction87
      • Chapitre 4. Principe d'un test statistique89
      • 4.1. L'utilité des statistiques89
      • 4.2. La théorie de la décision91
      • 4.3. La démarche statistique93
      • 4.3.1. Notions de risques d'erreur, de puissance et de robustesse94
      • 4.3.2. Echantillons indépendants et appariés99
      • 4.4. Exemple de l'application d'un test statistique99
      • 4.4.1. Cas d'un test t de Student de deux échantillons indépendants de type bilatéral102
      • 4.4.2. Cas d'un test t de Student de deux échantillons indépendants de type unilatéral104
      • 4.4.3. Cas d'un test t de Student pour la comparaison d'un échantillon à une norme105
      • 4.4.4. Cas d'un test t de Student de deux échantillons appariés107
      • 4.4.5. Puissance d'un test et recherche du nombre d'éléments minimum à considérer par échantillon pour une puissance imposée111
      • Chapitre 5. Clés de choix des tests statistiques113
      • 5.1. Comment utiliser les clés de choix ?113
      • 5.2. Tests de vérification de conditions d'application121
      • 5.2.1. Règle de Cochran121
      • 5.2.2. Test de Kolmogorov-Smimov122
      • 5.2.3. Test de Shapiro-Wilks123
      • 5.2.4. Test de Fisher-Snedecor124
      • 5.2.5. Test de Bartlett126
      • 5.2.6. Test de Levene128
      • 5.2.7. Test de Goldfeld-Quandt129
      • 5.2.8. Test de Durbin-Watson130
      • 5.2.9. Test d'homogénéité des variances betadisp131
      • Chapitre 6. Tests de comparaison de paramètres en uni- ou bilatéral133
      • 6.1. Comparaisons d'effectifs et de proportions133
      • 6.1.1. Test exact de Fisher133
      • 6.1.2. Test du chi2 de conformité135
      • 6.1.3. Test du chi2 d'homogénéité138
      • 6.1.4. Test de Mac Nemar140
      • 6.1.5. Test binomial142
      • 6.1.6. Test de Cochran-Mantel-Hantzel142
      • 6.2. Comparaisons de moyennes145
      • 6.2.1. Test de Student145
      • 6.2.1.1. Pour échantillons indépendants146
      • 6.2.1.2. Test de Welch148
      • 6.2.1.3. Pour la comparaison d'un échantillon à une norme150
      • 6.2.1.4. Pour la comparaison d'échantillons appariés152
      • 6.2.1.5. Puissance du test de Student154
      • 6.2.2. Test U de Wilcoxon-Mann-Withney155
      • 6.2.2.1. Test U de Wilcoxon-Mann-Withney pour échantillons indépendants156
      • 6.2.2.2. Test de conformité de Wilcoxon-Mann-Withney158
      • 6.2.2.3. Test U de Wilcoxon pour échantillons appariés160
      • 6.2.2.4. Puissance du test de Wilcoxon-Mann-Withney161
      • 6.3. Test de corrélation de deux variables quantitatives163
      • 6.3.1. Corrélation linéaire : le coefficient de Bravais-Pearson163
      • 6.3.2. Corrélation monotone : les coefficients de Spearman ou de Kendall166
      • Chapitre 7. Modèles linéaires classiques et généralisés171
      • 7.1. Principe des modèles linéaires173
      • 7.1.1. Les modèles linéaires classiques : le principe des moindres carrés173
      • 7.1.1.1. Principe général sur régression simple et ANOVA à un facteur173
      • 7.1.1.2. La régression multiple177
      • 7.1.1.3. L'ANOVA multifactorielle180
      • 7.1.1.4. Les analyses de covariance (ANCOVA)180
      • 7.1.1.5. Clé de choix des plans d'ANOVA à mettre en place182
      • 7.1.2. Les modèles linéaires généralisés : le principe des maximums de vraisemblance182
      • 7.2. Les conditions d'application du modèle186
      • 7.2.1. Les modèles linéaires classiques186
      • 7.2.2. Les modèles linéaires généralisés189
      • 7.3. Autres analyses utiles190
      • 7.3.1. Transformations, linéarisation190
      • 7.3.2. Les tests post hoc pour ANOVA ou GLM équivalent193
      • 7.3.3. La partition de variance195
      • 7.3.4. Critères de sélection de modèles linéaires : critère AIC ou BIC197
      • 7.3.5. Du modèle à la prédiction198
      • 7.4. Exemple d'application des différents modèles linéaires198
      • 7.4.1. Régression linéaire simple198
      • 7.4.1.1. Avec vérification des conditions d'application détaillée198
      • 7.4.1.2. Avec un exemple de prédiction à partir de l'équation du modèle205
      • 7.4.2. Régression linéaire multiple207
      • 7.4.2.1. Avec un exemple de partition de variance207
      • 7.4.2.2. Avec un exemple d'optimisation de modèle pour une régression multiple212
      • 7.4.3. ANOVA à un facteur215
      • 7.4.4. ANOVA multifactorielle221
      • 7.4.4.1. ANOVA sur plan croisé équilibré221
      • 7.4.4.2. ANOVA sur plan croisé déséquilibré227
      • 7.4.4.3. ANOVA multifactorielle sur plan hiérarchisé233
      • 7.4.4.4. ANOVA à mesures répétées : plan mixte, plan avec appariement, plan à effet de bloc238
      • 7.4.5. Analyse de covariance (ANCOVA)241
      • 7.5. Exemples d'application de modèles linéaires généralisés (GLM)244
      • 7.5.1. GLM pour des données de proportions ou binaires sous la loi binomiale244
      • 7.5.2. GLM pour des données discrètes sous la loi de Poisson250
      • 7.5.3. GLM pour des données réelles positives sous la loi gamma257
      • 7.5.4. GLM pour des données réelles sous la loi gaussienne263
      • Chapitre 8. Alternatives non paramétriques aux modèles linéaires267
      • 8.1. Principe des tests non paramétriques267
      • 8.2. Les alternatives d'ANOVA268
      • 8.2.1. Les ANOVA basées sur les rangs268
      • 8.2.2. Alternative non paramétrique à une ANOVA à un facteur : le test de Kruskal-Wallis et post hoc associés268
      • 8.2.3. Alternative non paramétrique à une ANOVA à deux facteurs : test de Scheirer-Ray-Hare271
      • 8.2.4. Alternative non paramétrique à une ANOVA avec appariement : le test de Friedman272
      • 8.3. Les ANOVA non paramétriques basées sur les tests par permutation (PERMANOVA)275
      • 8.3.1. Principe275
      • 8.3.2. Exemple d'application sous R277
      • 8.4. Les modèles non linéaires283
      • Conclusion285
      • Bibliographie287
      • Index289

  • Origine de la notice:
    • Electre
  • Disponible - 681.25 DAV

    Niveau 3 - Informatique