La théorie et ses applications
Michel Lejeune
Springer
1 Variables aléatoires
1
1.1 Notion de variable aléatoire1
1.2 Fonction de répartition4
1.3 Cas des variables aléatoires discrètes6
1.4 Cas des variables aléatoires continues6
1.5 Notion essentielle de quantile9
1.6 Fonction d'une variable aléatoire11
1.7 Exercices12
2 Espérance mathématique et moments
15
2.1 Introduction et définition15
2.2 Espérance d'une fonction d'une variable aléatoire16
2.3 Linéarité de l'opérateur E(.), moments, variance18
2.4 Tirage aléatoire dans une population finie : distribution empirique
et distribution probabiliste21
2.5 Fonction génératrice des moments21
2.6 Formules d'approximation de l'espérance et de la variance d'une
fonction d'une v.a.24
2.7 Exercices25
3 Couples et n-uplets de variables aléatoires
27
3.1 Introduction27
3.2 Couples de v.a.28
3.3 Indépendance de deux variables aléatoires31
3.4 Espérance mathématique, covariance, corrélation32
3.5 Somme de deux v.a.36
3.6 Les n-uplets de v.a. ; somme de n v.a.37
3.7 Sondage aléatoire dans une population et v.a. i.i.d.38
3.8 Notation matricielle des vecteurs aléatoires39
3.9 Loi de Gauss multivariée40
3.10 Exercices43
4 Les lois de probabilités usuelles
45
4.1 Les lois discrètes45
4.1.1 La loi uniforme discrète45
4.1.2 Loi de Bernoulli B(p)46
4.1.3 Le processus de Bernoulli et la loi binomiale B(n, p)47
4.1.4 Les lois géométrique G(p) et binomiale négative BN(r, p)49
4.1.5 La loi hypergéométrique H(N, M, n)50
4.1.6 La loi multinomiale51
4.1.7 Le processus et la loi de Poisson P(Lambda)51
4.2 Les lois continues54
4.2.1 La loi continue uniforme U[a, b]54
4.2.2 La loi exponentielle Epsilon(Lambda)55
4.2.3 La loi gamma Gamma(r, Lambda)56
4.2.4 La loi de Gauss ou loi normale N(µ, Sigma2)57
4.2.5 La loi lognormale LN(µ, Sigma2)60
4.2.6 La loi de Pareto61
4.2.7 La loi de Weibull W(Lambda, Alpha)61
4.2.8 La loi de Gumbel62
4.2.9 La loi bêta Beta(Alpha, Bêta)63
4.3 Génération de nombres issus d'une loi donnée63
4.4 Exercices64
5 Lois fondamentales de l'échantillonnage
67
5.1 Phénomènes et échantillons aléatoires67
5.2 Moyenne, variance, moments empiriques69
5.3 Loi du Khi-deux72
5.4 Loi de Student74
5.5 Loi de Fisher-Snedecor76
5.6 Statistiques d'ordre77
5.7 Fonction de répartition empirique78
5.8 Convergence, approximations gaussiennes, grands échantillons79
5.8.1 Les modes de convergence aléatoires79
5.8.2 Lois des grands nombres81
5.8.3 Le théorème central limite82
5.9 Exercices86
6 Théorie de l'estimation paramétrique ponctuelle
91
6.1 Cadre général de l'estimation91
6.2 Cadre de l'estimation paramétrique92
6.3 La classe exponentielle de lois94
6.4 Une approche intuitive de l'estimation : la méthode des moments96
6.5 Qualités des estimateurs98
6.5.1 Biais d'un estimateur99
6.5.2 Variance et erreur quadratique moyenne d'un estimateur100
6.5.3 Convergence d'un estimateur103
6.5.4 Exhaustivité d'un estimateur105
6.6 Recherche des meilleurs estimateurs sans biais110
6.6.1 Estimateurs UMVUE110
6.6.2 Estimation d'une fonction de Thêta et reparamétrisation114
6.6.3 Borne de Cramer-Rao et estimateurs efficaces114
6.6.4 Extension à un paramètre de dimension k > 1118
6.7 L'estimation par la méthode du maximum de vraisemblance121
6.7.1 Définitions122
6.7.2 Exemples et propriétés123
6.7.3 Reparamétrisation et fonctions du paramètre126
6.7.4 Comportement asymptotique de l'EMV127
6.8 Les estimateurs bayésiens128
6.9 Exercices131
7 Estimation paramétrique par intervalle de confiance
135
7.1 Définitions135
7.2 Méthode de la fonction pivot138
7.3 Méthode asymptotique140
7.4 Construction des IC classiques144
7.4.1 IC pour la moyenne d'une loi N(µ, Sigma2)144
7.4.2 IC pour la variance Sigma2 d'une loi de Gauss146
7.4.3 IC sur la différence des moyennes de deux lois de Gauss147
7.4.4 IC sur le rapport des variances de deux lois de Gauss149
7.4.5 IC sur le paramètre p d'une loi de Bernoulli150
7.4.6 IC sur la différence des paramètres de deux lois de Bernoulli152
7.5 IC par la méthode des quantiles153
7.6 Approche bayésienne157
7.7 Notions d'optimalité des IC158
7.8 Région de confiance pour un paramètre de dimension k > 1159
7.9 Intervalles de confiance et tests163
7.10 Exercices163
8 Estimation non paramétrique et estimation fonctionnelle
167
8.1 Introduction167
8.2 Estimation de la moyenne et de la variance de la loi168
8.2.1 Estimation de la moyenne µ168
8.2.2 Estimation de la variance Sigma2169
8.3 Estimation d'un quantile170
8.4 Les méthodes de rééchantillonnage172
8.4.1 Introduction172
8.4.2 La méthode du jackknife173
8.4.3 La méthode du bootstrap177
8.5 Estimation fonctionnelle181
8.5.1 Introduction181
8.5.2 L'estimation de la densité182
8.5.3 L'estimation de la fonction de répartition192
8.6 Exercices198
9 Tests d'hypothèses paramétriques
201
9.1 Introduction201
9.2 Test d'une hypothèse simple avec alternative simple202
9.3 Test du rapport de vraisemblance simple208
9.3.1 Propriété d'optimalité208
9.3.2 Cas d'un paramètre de dimension 1212
9.4 Tests d'hypothèses multiples213
9.4.1 Risques, puissance et optimalité213
9.4.2 Tests d'hypothèses multiples unilatérales214
9.4.3 Tests d'hypothèses bilatérales219
9.5 Test du rapport de vraisemblance généralisé220
9.6 Remarques diverses226
9.7 Les tests paramétriques usuels228
9.7.1 Tests sur la moyenne d'une loi N(µ, Sigma2)229
9.7.2 Test sur la variance Sigma2 d'une loi N(µ, Sigma2)231
9.7.3 Tests de comparaison des moyennes de deux lois de Gauss232
9.7.4 Tests de comparaison des variances de deux lois de Gauss235
9.7.5 Tests sur le paramètre p d'une loi de Bernoulli (ou test
sur une proportion)235
9.7.6 Tests de comparaison des paramètres de deux lois de
Bernoulli (comparaison de deux proportions)237
9.7.7 Test sur la corrélation dans un couple gaussien240
9.8 Dualité entre tests et intervalles de confiance242
9.9 Exercices244
10 Tests pour variables catégorielles et tests non paramétriques
251
10.1 Test sur les paramètres d'une loi multinomiale252
10.1.1 Test du rapport de vraisemblance généralisé252
10.1.2 Test du khi-deux de Pearson254
10.1.3 Equivalence asymptotique des deux tests255
10.1.4 Cas particulier de la loi binomiale256
10.2 Test de comparaison de plusieurs lois multinomiales257
10.3 Test d'indépendance de deux variables catégorielles259
10.3.1 Test du RVG et test du khi-deux259
10.3.2 Test exact de Fisher (tableau 2 x 2)262
10.4 Tests d'ajustement à un modèle de loi264
10.4.1 Ajustement à une loi parfaitement spécifiée265
10.4.2 Ajustement dans une famille paramétrique donnée267
10.5 Tests non paramétriques sur des caractéristiques de lois272
10.5.1 Introduction272
10.5.2 Les statistiques de rang272
10.5.3 Tests sur moyenne, médiane et quantiles273
10.5.4 Tests de localisation de deux lois274
10.5.5 Test pour la corrélation de Spearman281
10.6 Exercices283
11 Régressions linéaire, logistique et non paramétrique
289
11.1 Introduction à la régression289
11.2 La régression linéaire292
11.2.1 Le modèle292
11.2.2 Les estimateurs du maximum de vraisemblance293
11.2.3 Intervalles de confiance296
11.2.4 Test H0 : Bêta1 = 0297
11.2.5 Cas non gaussien299
11.2.6 Régression et corrélation linéaires300
11.2.7 Extension à la régression multiple303
11.3 La régression logistique305
11.3.1 Le modèle305
11.3.2 Estimation de la fonction p(x)306
11.3.3 Matrice des variances-covariances de (...)308
11.3.4 Test H0 : Bêta1 = 0309
11.3.5 Intervalles de confiance310
11.3.6 Remarques diverses312
11.4 La régression non paramétrique314
11.4.1 Introduction314
11.4.2 Définition des estimateurs à noyaux314
11.4.3 Biais et variance315
11.4.4 La régression polynomiale locale318
11.5 Exercices320
Tables
323
Bibliographie
329
Index
333