• Aide
  • Eurêkoi Eurêkoi

Livre

Régression : théorie et applications

Résumé

Présentation de l'une des méthodes les plus utilisées de la statistique, la régression, à travers ses fondements théoriques et les questions que l'on se pose lors de la modélisation des phénomènes réels. Cette étude, illustrée d'exercices corrigés, aborde notamment la régression linéaire simple, la régression linéaire multiple, l'inférence dans le modèle gaussien et la régression sur variables.


  • Autre(s) auteur(s)
  • Éditeur(s)
  • Date
    • DL 2006
  • Notes
    • Bibliogr. p. 249. Index
  • Langues
    • Français
  • Description matérielle
    • 1 vol. (XV-302 p.) : ill., couv. ill. en coul. ; 24 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 2-287-39692-6 ;
    • 978-2-287-39692-2
  • Indice
    • 519 Probabilités et statistiques mathématiques
  • Quatrième de couverture
    • Régression

      Théorie et applications

      Cet ouvrage expose de manière détaillée, exemples à l'appui, l'une des méthodes statistiques les plus courantes : la régression. Les premiers chapitres sont consacrés à la régression linéaire simple et multiple. Ils expliquent les fondements de la méthode, tant au niveau des choix opérés que des hypothèses et de leur utilité. Ensuite sont développés les outils permettant de vérifier les hypothèses de base mises en oeuvre par la régression. Une présentation simple des modèles d'analyse de la covariance et de la variance est effectuée.

      Enfin, les derniers chapitres sont consacrés au choix de modèles ainsi qu'à certaines extensions de la régression : lasso, PLS, PCR...

      La présentation témoigne d'un réel souci pédagogique des auteurs qui bénéficient d'une expérience d'enseignement auprès de publics très variés. Les résultats exposés sont replacés dans la perspective de leur utilité pratique grâce à l'analyse d'exemples concrets. Les commandes permettant le traitement des exemples sous le logiciel R figurent dans le corps du texte. Enfin chaque chapitre est complété par une suite d'exercices corrigés.

      Le niveau mathématique requis le rend accessible aux étudiants des écoles d'ingénieurs, de Masters et aux chercheurs dans les divers domaines des sciences appliquées.

      Cette collection met à la disposition du public intéressé par la statistique (étudiants, enseignants, chercheurs) des ouvrages qui concilient effort pédagogique et travail permanent de mise à jour. Cette démarche implique de prendre en compte de façon sélective et critique les renouvellements des concepts, des champs d'application et des outils de traitement. Seules une compréhension profonde et une appropriation des connaissances permettront de s'adapter aux évolutions qui n'ont pas fini de bouleverser cette discipline.


  • Tables des matières
      • Régression

      • Théorie et applications

      • Pierre-André Cornillon

      • Éric Matzner-LØber

      • Springer

      • 1 La régression linéaire simple1
      • 1.1 Introduction1
      • 1.1.1 Un exemple : la pollution de l'air1
      • 1.1.2 Un deuxième exemple : la hauteur des arbres3
      • 1.2 Modélisation mathématique5
      • 1.2.1 Choix du critère de qualité et distance à la droite5
      • 1.2.2 Choix des fonctions à utiliser7
      • 1.3 Modélisation statistique9
      • 1.4 Estimateurs des moindres carrés10
      • 1.4.1 Calcul des estimateurs de ßj, quelques propriétés10
      • 1.4.2 Résidus et variance résiduelle13
      • 1.4.3 Prévision14
      • 1.5 Interprétations géométriques15
      • 1.5.1 Représentation des individus15
      • 1.5.2 Représentation des variables15
      • 1.5.3 Le coefficient de détermination R216
      • 1.6 Inférence statistique17
      • 1.7 Exemples21
      • 1.7.1 La concentration en ozone21
      • 1.7.2 La hauteur des eucalyptus26
      • 1.8 Exercices29
      • 1.9 Notes : estimateurs du maximum de vraisemblance31
      • 2 La régression linéaire multiple33
      • 2.1 Introduction33
      • 2.2 Modélisation34
      • 2.3 Estimateurs des moindres carrés38
      • 2.3.1 Calcul de (...)38
      • 2.3.2 Interprétation41
      • 2.3.3 Quelques propriétés statistiques41
      • 2.3.4 Résidus et variance résiduelle42
      • 2.3.5 Prévision44
      • 2.4 Interprétation géométrique44
      • 2.5 Exemples46
      • 2.5.1 La concentration en ozone46
      • 2.5.2 La hauteur des eucalyptus48
      • 2.6 Exercices50
      • 3 Inférence dans le modèle gaussien53
      • 3.1 Estimateurs du maximum de vraisemblance53
      • 3.2 Nouvelles propriétés statistiques54
      • 3.3 Intervalles et régions de confiance56
      • 3.4 Exemple57
      • 3.5 Prévision59
      • 3.6 Les tests d'hypothèses60
      • 3.6.1 Introduction60
      • 3.6.2 Test entre modèles emboîtés61
      • 3.7 Exemples65
      • 3.7.1 La concentration en ozone65
      • 3.7.2 La hauteur des eucalyptus66
      • 3.8 Exercices69
      • 3.9 Notes71
      • 3.9.1 Intervalle de confiance : bootstrap71
      • 3.9.2 Test de Fisher pour une hypothèse linéaire quelconque74
      • 3.9.3 Propriétés asymptotiques76
      • 4 Validation du modèle81
      • 4.1 Analyse des résidus82
      • 4.1.1 Les différents résidus82
      • 4.1.2 Ajustement individuel au modèle, valeur aberrante84
      • 4.1.3 Analyse de la normalité85
      • 4.1.4 Analyse de l'homoscédasticité85
      • 4.1.5 Analyse de la structure des résidus86
      • 4.1.6 Conclusion89
      • 4.2 Analyse de la matrice de projection89
      • 4.3 Autres mesures diagnostiques91
      • 4.4 Effet d'une variable explicative94
      • 4.4.1 Ajustement au modèle94
      • 4.4.2 Régression partielle : impact d'une variable95
      • 4.4.3 Résidus partiels et résidus partiels augmentés96
      • 4.5 Exemple : la concentration en ozone97
      • 4.6 Exercices101
      • 5 Régression sur variables qualitatives103
      • 5.1 Introduction103
      • 5.2 Analyse de la covariance105
      • 5.2.1 Introduction : exemple des eucalyptus105
      • 5.2.2 Modélisation du problème106
      • 5.2.3 Hypothèse gaussienne108
      • 5.2.4 Exemple : la concentration en ozone109
      • 5.2.5 Exemple : la hauteur des eucalyptus114
      • 5.3 Analyse de la variance à un facteur116
      • 5.3.1 Introduction116
      • 5.3.2 Modélisation du problème117
      • 5.3.3 Estimation des paramètres119
      • 5.3.4 Interprétation des contraintes120
      • 5.3.5 Hypothèse gaussienne et test d'influence du facteur120
      • 5.3.6 Exemple : la concentration en ozone122
      • 5.3.7 Une décomposition directe de la variance127
      • 5.4 Analyse de la variance à deux facteurs127
      • 5.4.1 Introduction127
      • 5.4.2 Modélisation du problème128
      • 5.4.3 Estimation des paramètres130
      • 5.4.4 Analyse graphique de l'interaction131
      • 5.4.5 Hypothèse gaussienne et test de l'interaction133
      • 5.4.6 Tableau d'analyse de la variance135
      • 5.4.7 Conclusion136
      • 5.4.8 Exemple : la concentration en ozone136
      • 5.5 Exercices138
      • 5.6 Notes : identifiabilité et contrastes139
      • 6 Choix de variables143
      • 6.1 Introduction143
      • 6.2 Choix incorrect de variables : conséquences145
      • 6.2.1 Analyse du biais des estimateurs145
      • 6.2.2 Analyse de la variance des estimateurs147
      • 6.2.3 Erreur quadratique moyenne148
      • 6.2.4 Erreur quadratique moyenne de prévision151
      • 6.3 La sélection de variables en pratique153
      • 6.3.1 Deux jeux de données ou beaucoup d'observations153
      • 6.3.2 Un seul jeu de données et peu d'observations154
      • 6.4 Critères classiques de choix de modèles155
      • 6.4.1 Tests entre modèles emboîtés155
      • 6.4.2 Le R2156
      • 6.4.3 Le R2 ajusté158
      • 6.4.4 Le Cp de Mallows159
      • 6.4.5 Vraisemblance et pénalisation162
      • 6.4.6 Lien entre les critères163
      • 6.5 Procédure de sélection165
      • 6.5.1 Recherche exhaustive165
      • 6.5.2 Recherche pas à pas166
      • 6.6 Exemple : la concentration en ozone168
      • 6.7 Sélection et shrinkage170
      • 6.8 Exercices173
      • 6.9 Notes : extension du Cp174
      • 7 Moindres carrés généralisés179
      • 7.1 Introduction179
      • 7.2 Moindres carrés pondérés180
      • 7.3 Estimateur des moindres carrés généralisés183
      • 7.3.1 Estimateur des MCG et optimalité184
      • 7.3.2 Résidus et estimateur de sigma2185
      • 7.3.3 Hypothèse gaussienne186
      • 7.3.4 Matrice oméga inconnue186
      • 7.4 Extension des moindres carrés pondérés : la régression locale191
      • 7.5 Exercices194
      • 8 Régression biaisée197
      • 8.1 Régression ridge198
      • 8.1.1 Equivalence avec une contrainte sur la norme des coefficients199
      • 8.1.2 Propriétés statistiques de l'estimateur ridge (...)ridge200
      • 8.1.3 La régression ridge en pratique202
      • 8.1.4 Exemple des biscuits205
      • 8.2 Lasso209
      • 8.2.1 La méthode209
      • 8.2.2 La régression lasso en pratique210
      • 8.2.3 Exemple des biscuits211
      • 8.3 Régression sur composantes principales213
      • 8.3.1 Hypothèse H1 satisfaite : |X´X| (...) 0214
      • 8.3.2 Colinéarité parfaite : |X´X| = 0215
      • 8.3.3 Pratique de la régression sur composantes principales217
      • 8.3.4 Exemple des biscuits221
      • 8.4 Régression aux moindres carrés partiels (PLS)223
      • 8.4.1 Algorithmes PLS et recherche des composantes225
      • 8.4.2 Recherche de la taille k226
      • 8.4.3 Analyse de la qualité du modèle228
      • 8.4.4 Exemple des biscuits230
      • 8.5 Exercices231
      • A Corrections des exercices239
      • A.1 Régression linéaire simple239
      • A.2 Régression linéaire multiple243
      • A.3 Inférence dans le modèle gaussien248
      • A.4 Validation du modèle253
      • A.5 Régression sur variables qualitatives256
      • A.6 Choix de variables262
      • A.7 Moindres carrés généralisés264
      • A.8 Régression biaisée265
      • B Rappels281
      • B.1 Rappels d'algèbre281
      • B.2 Rappels de probabilités285
      • B.2.1 Généralités285
      • B.2.2 Vecteurs aléatoires gaussiens286
      • B.3 Tables des lois usuelles287
      • B.3.1 Loi normale X ~ N(0,1)287
      • B.3.2 Loi de Student X ~ Tnu288
      • B.3.3 Loi du Khi-deux à nu ddl X ~ (...)289
      • B.3.4 Loi de Fisher à nu1, nu2 ddl X ~ (...)290
      • Bibliographie291
      • Index295
      • Notations301

  • Origine de la notice:
    • BNF
  • Disponible - 519 COR

    Niveau 2 - Sciences