• Aide
  • Eurêkoi Eurêkoi

Livre

Analyse de régression appliquée

Résumé

Présentation complète des concepts et techniques de base de l'analyse de régression (linéaire simple et multiple) et de la méthode d'estimation des paramètres (moindres carrés, corrélation, variance). Propose des exercices suivis de leurs corrigés.


  • Autre(s) auteur(s)
  • Éditeur(s)
  • Date
    • 2004
  • Notes
    • Bibliogr. Index
  • Langues
    • Français
  • Description matérielle
    • VIII-279 p. ; 24 x 16 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 2-10-048659-4
  • Indice
    • 519 Probabilités et statistiques mathématiques
  • Quatrième de couverture
    • Cette nouvelle édition entièrement révisée propose une présentation complète des concepts et techniques de base de l'analyse de régression et de la méthode d'estimation des paramètres. La méthode des moindres carrés y est présentée en détail dans les trois premiers chapitres, pour l'analyse de régression simple et multiple, mais l'ouvrage s'ouvre également sur d'autres méthodes.

      S'appuyant sur l'expérience de leur enseignement, les auteurs présentent de façon très pédagogique:

      • l'analyse de régression linéaire;
      • la régression linéaire simple;
      • la régression multiple;
      • la corrélation;
      • les diagnostics;
      • le choix du modèle;
      • l'analyse de variance et régression;
      • la régression ridge;
      • la régression lad.

      Chaque chapitre est illustré de nombreux exemples et comporte des exercices dont les corrigés sont fournis en fin d'ouvrage.

      · Licences et Masters en sciences économiques et Mass

      · Écoles de commerce et de gestion


  • Tables des matières
      • Analyse de régression appliquée

      • Manuel et exercices corrigés

      • Yadolah DodgeValentin Rousson

      • Dunod

      • Avant-propos
        III
      • 1. Analyse de régression linéaire
        1
      • I. Relation entre deux variables1
      • II. Relation déterministe3
      • III. Relation stochastique5
      • IV. Méthode des moindres carrés9
      • V. Variation expliquée et inexpliquée14
      • VI. L'origine de la régression
        17
      • 2. Régression linéaire simple
        23
      • I. Le modèle de régression simple23
      • II. Distribution des estimateurs des moindres carrés25
      • A. Espérance mathématique de Beta126
      • B. Espérance mathématique de Beta026
      • C. Variance de Beta127
      • D. Variance de Beta027
      • E. Covariance entre Beta1 et Beta028
      • III. Estimation de la variance des erreurs
        28
      • IV. Inférence sur les paramètres du modèle30
      • A. Test sur la pente Beta131
      • B. Intervalle de confiance pour Beta132
      • C. Test sur l'ordonnée à l'origine Beta033
      • D. Intervalle de confiance pour Beta034
      • E. Intervalle de confiance pour Muy(x)34
      • F. Intervalle de prédiction
        36
      • V. Analyse de variance
        41
      • VI. Modèles avec un seul paramètre43
      • A. Modèle sans variable explicative44
      • B. Modèle sans constante
        46
      • 3. Régression multiple
        55
      • I. L'hyperplan de régression55
      • II. Modèle à deux variables explicatives57
      • III. Cas général58
      • IV. Propriétés des moindres carrés62
      • V. Hypothèses du modèle64
      • VI. Estimation de la variance des erreurs65
      • VII. Inférence sur les paramètres du modèle67
      • A. Tests d'hypothèses67
      • B. Intervalles de confiance68
      • VIII. Analyse de variance70
      • IX. Régression sans constante72
      • X. Test F partiel
        74
      • 4. Corrélation
        83
      • I. Mesure de corrélation83
      • II. Coefficient de corrélation84
      • III. Estimation du coefficient de corrélation86
      • IV. Coefficient de corrélation et régression89
      • A. Lien entre coefficient de corrélation et pente de la droite de régression89
      • B. Lien entre coefficient de corrélation et coefficient de détermination90
      • C. Le cube du coefficient de corrélation91
      • V. Petites corrélations93
      • A. Corrélations atténuées93
      • B. Corrélation et domaine d'observation94
      • VI. Tests sur le coefficient de corrélation95
      • A. Test de l'hypothèse Rhôxy = 095
      • B. Test de l'hypothèse Rhôxy = Rhô097
      • C. Intervalle de confiance pour Rhôxy98
      • VII. Matrice de corrélation99
      • VIII. Corrélation partielle100
      • IX. Corrélation sérielle103
      • X. Corrélation de rang de Spearman
        105
      • 5. Diagnostics
        113
      • I. Hypothèses du modèle113
      • II. Analyse graphique des résidus114
      • A. Graphique des résidus en fonction des valeurs estimées Yi
        115
      • B. Graphique des résidus en fonction des variables explicatives118
      • C. Graphique des résidus en fonction du temps118
      • D. QQ-plot des résidus119
      • III. Remèdes120
      • A. Méthode des moindres carrés pondérés121
      • B. Transformation des variables124
      • C. Modèles autorégressifs126
      • IV. Linéarité du modèle126
      • V. Matrice H129
      • VI. Variance des résidus131
      • VII. Détection des observations aberrantes132
      • A. Studentisation des résidus133
      • B. Point levier135
      • C. Aberration en X ou en Y?
        137
      • 6. Choix du modèle 145
      • I. Les critères de choix145
      • A. Critère du R2146
      • B. Critère du R2 ajusté146
      • C. Critère du Cp de Mallows147
      • D. Critère AIC149
      • II. Procédures de sélection de variables150
      • A. Recherche exhaustive151
      • B. Les méthodes de type pas à pas152
      • III. Recherche exhaustive152
      • IV. Élimination en arrière158
      • V. Sélection en avant158
      • VI. Procédure stepwise159
      • VII. Deux variantes des méthodes précédentes161
      • VIII. Procédure de régression stagewise
        161
      • 7. Analyse de variance et régression
        169
      • I. Exemple introductif169
      • II. Analyse de variance à un facteur171
      • III. Approche par la régression177
      • A. Réduction du nombre de paramètres178
      • B. Autre exemple de réduction des paramètres184
      • IV. Analyse de variance à deux facteurs
        187
      • 8. Régression ridge
        195
      • I. Colinéarité
        195
      • II. Facteurs d'inflation de la variance197
      • III. Colinéarité et sélection de variables199
      • IV. Données standardisées200
      • V. Régression ridge202
      • VI. Propriétés des estimateurs ridge203
      • VII. Comparaison
        206
      • 9. Régression LAD
        211
      • I. Régression simple211
      • II. Algorithme LAD213
      • III. Non-unicité et dégénérescence216
      • IV. Test d'hypothèse sur la pente Beta1217
      • V. Régression multiple220
      • VI. Algorithme LAD multiple221
      • VII. Tests d'hypothèses sur les Betaj
        228
      • 10. Conclusion
        235
      • I. Données réelles et statistique236
      • II. Données réelles et données fictives238
      • III. Précaution
        239
      • Corrigés des exercices
        243
      • I. Chapitre 1243
      • II. Chapitre 2245
      • III. Chapitre 3248
      • IV. Chapitre 4251
      • V. Chapitre 5252
      • VI. Chapitre 6256
      • VII. Chapitre 7256
      • VIII. Chapitre 9
        257
      • Tables statistiques
        263
      • Bibliographie
        269
      • I. Livres269
      • II. Articles
        272
      • Index 277

  • Origine de la notice:
    • Electre
  • Disponible - 519 DOD

    Niveau 2 - Sciences