• Aide
  • Eurêkoi Eurêkoi

Livre

Traitement des mesures : interprétation, modélisation, outil statistique

Résumé

Cet ouvrage présente les outils de traitement général des résultats de mesures, ainsi que les concepts et les méthodes de base. L'objectif est de permettre de déduire d'une série de mesures un maximum d'informations : confiance dans les résultats (incertitudes), confrontation à d'autres résultats (tests) ou à des modèles (régressions).


  • Éditeur(s)
  • Date
    • 2009
  • Notes
    • Bibliogr. Index
  • Langues
    • Français
  • Description matérielle
    • 377 p. ; 26 x 18 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 978-2-7298-4145-4
  • Indice
    • 519.4 Statistique appliquée, sondages
  • Quatrième de couverture
    • L'ouvrage : niveau B (IUP - Licence)

      Cet ouvrage présente les outils de traitement général des résultats de mesures, ainsi que les concepts et les méthodes de base. L'objectif est de permettre de déduire d'une série de mesures un maximum d'informations : confiance dans les résultats (incertitudes), confrontation à d'autres résultats (tests) ou à des modèles (régressions).

      Les chapitres exposant les techniques élémentaires suivent une progression permettant d'aborder facilement ces savoirs.

      L'ouvrage comporte aussi certaines originalités :

      • Il introduit les incertitudes A et B ainsi que la régression dite exacte ;
      • Au niveau des tests, il en présente certains souvent considérés comme spécifiques des sciences humaines, alors qu'ils sont les seuls valables en sciences dites dures lorsque certaines conditions ne sont pas remplies.
      • Enfin, une caractéristique importante de l'ouvrage est son lien avec des classeurs Excel® illustrant les outils décrits. La plupart sont des outils qui donnent le maximum d'informations sur les résultats traités. D'autres sont plus didactiques et complètent l'approche théorique. Ces classeurs, non joints à l'ouvrage, sont disponibles sur Internet dans le site : http://www.cetice.u-psud.fr/complements/stats/r-journeaux.html

  • Tables des matières
      • Traitement des mesures

      • Interprétation, modélisation, outil statistique

      • Roger Journeaux

      • ellipses

      • Avant-propos3
      • Table des matières5
      • Chapitre I. Probabilités et Statistiques11
      • 1. Population et échantillon12
      • 2. Rappels de probabilité13
      • 2.1. Généralités13
      • 2.2. Le cas de couples de variables14
      • 2.3. Grandeurs associées aux lois de probabilité14
      • 3. Théorèmes importants17
      • 3.1. L'inégalité de Bienaymé-Tchebychev17
      • 3.2. La loi faible des grands nombres17
      • 3.3. Le théorème limite central18
      • 4. Lois de probabilité importantes19
      • 4.1. La loi de Laplace-Gauss ou normale19
      • 4.2. Les lois binomiale et de Poisson20
      • 4.3. La loi du CHI2 (x2)20
      • 4.4. Loi de Student21
      • 4.5. La loi F de Snedecor22
      • 4.6. Deux distributions intéressantes23
      • 5. Simulation d'une variable aléatoire25
      • 5.1. Présentation de la technique25
      • 5.2. Application à une loi triangulaire26
      • 5.3. Le cas d'une répartition gaussienne28
      • 5.4. Test du caractère aléatoire28
      • 6. Illustration du théorème limite central32
      • Chapitre II. Généralités sur la mesure43
      • 1. Les types de variables44
      • 2. Le rôle de la mesure45
      • 3. Les pratiques de référence47
      • 4. Les qualités d'une mesure48
      • 4.1. La notion de valeur vraie48
      • 4.2. Les types d'erreurs51
      • 4.3. Une théorie historique des erreurs55
      • 5. Quelques problèmes de vocabulaire59
      • 6. Les caractéristiques d'un instrument de mesure63
      • 7. Les statistiques et le traitement des mesures64
      • Chapitre III. Traitement de la mesure d'une grandeur66
      • 1. Les estimateurs d'une population67
      • 1.1. Estimation de la moyenne67
      • 1.2. Estimation de la variance70
      • 1.3. Cas général71
      • 2. L'intervalle de confiance d'un résultat de mesure77
      • 2.1. Utilisation de la variance78
      • 2.2. Utilisation de l'étendue86
      • 2.3. Cas général89
      • 3. Les valeurs aberrantes90
      • 3.1. Comparaison à la moyenne90
      • 3.2. Test de Grubbs91
      • 3.3. Test de Dixon92
      • 4. Le cas des incertitudes systématiques (type B)93
      • 4.1. Le problème général93
      • 4.2. Application pratique95
      • 4.3. Un exemple simple99
      • 5. La visualisation des résultats100
      • 6. Utilisation du tableur Excel®105
      • Chapitre IV. La propagation des incertitudes113
      • 1. Etude de quelques cas particuliers113
      • 1.1. Multiplication par une constante113
      • 1.2. Addition d'une constante114
      • 1.3. Addition de deux grandeurs114
      • 2. Généralisation115
      • 2.1. Moyenne et variance115
      • 2.2. Le cas de la covariance117
      • 3. Utilisation pratique117
      • 4. Les limites de l'étude précédente118
      • 4.1. Approche théorique119
      • 4.2. Une méthode pour trouver l'intervalle de confiance122
      • 4.3. Illustrations par Excel®125
      • 4.4. Utilisation de la simulation129
      • 5. Le cas des incertitudes de type B134
      • 6. Le cas des variables non indépendantes136
      • 6.1. Présentation du problème136
      • 6.2. Généralisation138
      • 6.3. Application à un cas particulier139
      • Chapitre V. La régression linéaire149
      • 1. Présentation de la régression149
      • 1.1. Les critères utilisés dans la régression150
      • 1.2. Les limites du critère quadratique classique152
      • 2. Cas de la régression linéaire154
      • 2.1. Cas n°1154
      • 2.2. Cas n°2155
      • 2.3. Cas n°3155
      • 3. Incertitudes sur les coefficients155
      • 3.1. Variances de a et b156
      • 3.2. La covariance entre a et b156
      • 3.3. Retour sur le cas 1156
      • 3.4. Passage à l'intervalle de confiance157
      • 3.5. Le cas de l'interpolation158
      • 3.6. Le cas de l'origine159
      • 3.7. Illustration par Excel®160
      • 4. Régression linéaire et calculatrice163
      • 5. Les changements de variable164
      • 5.1. Position du problème164
      • 5.2. Application à la fonction puissance165
      • 5.3. Application à une étude d'impédance167
      • 6. Implications didactiques170
      • Chapitre VI. La régression généralisée177
      • 1. La régression polynomiale177
      • 1.1. Le problème général177
      • 1.2. Les méthodes de calcul des paramètres178
      • 2. La régression multiple183
      • 3. Combinaison des régressions multiple et polynomiale184
      • 4. Régression généralisée186
      • 5. Incertitudes sur les résultats187
      • 6. Régressions à solutions non linéaires188
      • 6.1. Présentation du problème188
      • 6.2. Application à la fonction puissance190
      • 6.3. Application à la régression polynomiale191
      • 6.4. Application à la décomposition en gaussiennes192
      • 6.5. Application à la déviation par le prisme197
      • 6.6. Une régression par recherche manuelle des paramètres199
      • 7. Deux applications particulières200
      • 7.1. Etude du circuit résonnant série200
      • 7.2. Etude d'une bobine205
      • 8. L'interpolation205
      • 9. Méthode exacte de régression208
      • 9.1. Le critère de régression208
      • 9.2. Comparaison à la méthode de la variance209
      • 9.3. Les techniques de résolution211
      • 9.4. La validation du modèle213
      • 9.5. Les incertitudes sur les coefficients213
      • 9.6. Utilisation d'Excel®216
      • 9.7. Les intervalles de confiance219
      • 9.8. Le cas de l'interpolation220
      • 9.9. Appartenance d'un point au modèle222
      • Chapitre VII. Les tests statistiques227
      • 1. Un exemple de conduite d'un test227
      • 2. La technique générale des tests230
      • 2.1. Test bilatéral231
      • 2.2. Test unilatéral232
      • 2.3. Le risque de seconde espèce233
      • 3. Tests statistiques et hasard236
      • Chapitre VIII. Corrélation238
      • 1. La corrélation linéaire239
      • 1.1. Le problème général239
      • 1.2. Les tests sur la corrélation242
      • 2. Les autres cas de corrélation243
      • 3. La corrélation des rangs244
      • 4. Exemples d'utilisation245
      • Chapitre IX. Tests de comparaison254
      • 1. Comparaison de variances255
      • 1.1. Comparaison d'une variance à une variance de référence255
      • 1.2. Comparaison des variances de deux échantillons256
      • 1.3. Comparaison de deux étendues257
      • 1.4. Comparaisons de plusieurs variances259
      • 2. Comparaison de moyennes260
      • 2.1. Comparaison à une moyenne connue260
      • 2.2. Comparaison de deux échantillons de variables indépendantes262
      • 2.3. Test des rangs de Wilcoxon Mann Whitney264
      • 2.4. Comparaison de deux échantillons de variables normales dépendantes267
      • 2.5. Test de Wilcoxon268
      • 2.6. Le test des signes271
      • 2.7. Illustration avec Excel®271
      • 3. Comparaison de paramètres de régression278
      • 3.1. Comparaisons dans une régression278
      • 3.2. Comparaison sur deux régressions280
      • 4. Analyse de la variance281
      • 4.1. Analyse simple de variance282
      • 4.2. Analyse de variance double285
      • Chapitre X. Tests d'ajustement298
      • 1. Ajustement à une loi de probabilité298
      • 1.1. Présentation du problème298
      • 1.2. Le test du CHI2298
      • 1.3. Test de Kolmogorov-Smirnov302
      • 1.4. Droite de Henry304
      • 1.5. Illustration avec Excel®306
      • 1.6. Test de normalité de Shapiro-Wilk310
      • 2. Validité de l'ajustement à un modèle mathématique311
      • 2.1. Application aux régressions311
      • 2.2. Exemple de confrontations de modèles312
      • 2.3. Les limites de la technique315
      • 2.4. Caractère aléatoire d'une série de résultats316
      • 3. Analyse non paramétrique317
      • 3.1. Présentation sur un cas simple317
      • 3.2. Les tableaux de contingence319
      • 3.3. Un exemple avec Excel®322
      • Chapitre XI. Statistiques descriptives329
      • 1. Le codage des données329
      • 2. Les protocoles univariés331
      • 2.1. Le cas de la variable d'intervalle331
      • 2.2. Variables ordinales et nominales333
      • 3. Les protocoles bivariés335
      • 3.1. V1 et V2 sont des variables d'intervalle335
      • 3.2. V1 est une variable d'intervalle, V2 une variable ordinale ou nominale336
      • 3.3. V1 et V2 sont des variables catégorisées337
      • 4. Les protocoles multivariés338
      • 4.1. Variables d'intervalle338
      • 4.2. Variables catégorisées339
      • Chapitre XII. Analyse des grands tableaux349
      • 1. Les analyses factorielles350
      • 1.1. Le principe des analyses factorielles350
      • 1.2. L'analyse en composantes principales353
      • 1.3. L'analyse factorielle des correspondances359
      • 1.4. Quelques différences entre les deux techniques366
      • 2. La classification ascendante hiérarchique367
      • 2.1. Le problèmes des distances367
      • 2.2. La technique de classification369
      • 2.3. Exemples d'applications369
      • Bibliographie373
      • Index374

  • Origine de la notice:
    • Electre
  • Disponible - 519.4 JOU

    Niveau 2 - Sciences