Pratique du calcul bayésien
Jean-Jacques Boreux/Éric Parent/Jacques Bernier
Springer
Préface
vii
Avant-propos
ix
Table des illustrations
xix
Liste des tableaux
xxiii
I De la plume...
1
1 La Statistique : son objet, ses outils
3
1.1 Le travail du statisticien3
1.2 Deux écoles pour l'inférence statistique5
1.2.1 L'école classique7
1.2.2 L'école bayésienne9
1.3 L'analyse statistique bayésienne11
1.3.1 La règle de Bayes12
1.3.2 La distribution prédictive a posteriori12
1.3.3 Application numérique15
1.3.4 Retour sur le prior16
1.4 Le choix bayésien16
1.4.1 Un procédé contestable ?17
1.4.2 Avantages18
2 Décision en avenir incertain : l'avalanche de Montroc
21
2.1 L'avalanche de Montroc21
2.1.1 Les faits21
2.1.2 Mise en situation22
2.1.3 Un problème de décision22
2.1.4 Quel(s) modèle(s) d'échantillonnage ?23
2.2 Imaginer un mécanisme générateur des observations24
2.2.1 Le processus de Bernoulli24
2.2.2 Le processus ponctuel de Poisson25
2.3 Inférence bayésienne27
2.3.1 Le modèle bêta-binomial27
2.3.2 Le modèle gamma-Poisson30
3 Introduction à la modélisation graphique
33
3.1 Introduction33
3.1.1 Une courte digression34
3.2 Principe de la modélisation graphique36
3.2.1 L'indépendance conditionnelle36
3.2.2 Du réseau bayésien à la loi conjointe38
3.2.3 DAG et variables latentes40
3.3 Le modèle de capture-recapture41
3.3.1 Mise en situation41
3.3.2 La modélisation41
3.3.3 Applications45
4 Calcul des lois a posteriori
49
4.1 Introduction49
4.2 Quand la vraisemblance fait le posterior52
4.2.1 Approximation asymptotique de la densité
a posteriori53
4.2.2 Fondements de ces approximations57
4.2.3 Estimation asymptotique des paramètres d'une
population gamma59
4.2.4 Estimation asymptotique des paramètres d'une régression
linéaire61
4.2.5 On retiendra65
4.3 Méthodes de Monte-Carlo par
chaînes de Markov66
4.3.1 Mise en contexte66
4.3.2 Algorithme (général) de Metropolis-Hastings (MH)66
4.3.3 Échantillonnage de Gibbs69
4.4 Méthodes de Monte-Carlo72
4.4.1 Simulation par la méthode d'acceptation-rejet73
4.4.2 L'échantillonnage et le ré-échantillonnage pondérés76
4.4.3 Vers les méthodes particulaires81
5 Le cardinal sort du rang
85
5.1 Introduction85
5.2 Modélisation hiérarchique87
5.2.1 Le problème du tramway87
5.2.2 Le problème des rangs de naissance88
6 Les modèles GEV et POT
97
6.1 Introduction98
6.2 Le modèle GEV100
6.2.1 La valeur de projet103
6.2.2 Sensibilité du modèle GEV aux hypothèses104
6.3 Le modèle POT105
6.3.1 La distribution de Pareto généralisée106
6.3.2 Le modèle POT108
6.4 Du modèle POT au modèle GEV108
6.5 Inférence bayésienne sur les paramètres
d'un modèle GEV110
6.5.1 La distribution conjointe a posteriori110
6.5.2 Algorithme MH séquentiel appliqué au modèle GEV111
6.6 Inférence bayésienne sur les paramètres
d'un modèle POT112
6.6.1 Distribution conjointe a posteriori et inference113
6.6.2 Échantillonnage de Gibbs115
6.7 Trois applications numériques réelles115
6.7.1 Le niveau de la mer à Port Pirie (Australie)116
6.7.2 La vitesse du vent à Tunis (Tunisie)118
6.7.3 La lame d'eau à Uccle (Belgique)121
7 Construire le prior
127
7.1 Introduction127
7.1.1 Prior non informatif128
7.1.2 La conjugaison130
7.1.3 L'analogie131
7.1.4 La méthode par introspections successives131
7.1.5 L'incertitude n'est pas l'ignorance et la subjectivité n'est
pas l'absurdité132
7.2 Définition constructive d'une probabilité
subjective132
7.3 Caler un prior bêta sur deux quantiles élicités du paramètre
d'un modèle d'observable binomial134
7.3.1 L'expert donne la valeur moyenne de Pi et une incertitude
sur celle-ci134
7.3.2 L'expert donne deux quantiles de Pi135
7.4 Caler un prior conjugué sur deux quantiles élicités des paramètres
d'un modèle d'observable normal136
7.4.1 Dialogue avec l'expert136
7.4.2 Le paramètre à éliciter est unidimensionnel136
7.4.3 Le paramètre à éliciter est bidimensionnel139
II ... à la souris
145
8 Modèle de capture-recapture : application au cas des saumons
147
8.1 Introduction147
8.2 Présentation du problème148
8.2.1 Les trois dernières étapes du cycle de vie du saumon148
8.2.2 Variables observées150
8.2.3 Expertise a priori sur le comportement du saumon150
8.2.4 Les variables latentes décrivent le phénomène biologique153
8.3 Inférence bayésienne155
8.3.1 Échantillonnage de Gibbs156
8.3.2 DAG, noeuds parents, noeuds enfants157
8.3.3 Actualisation bayésienne par l'échantillonnage de Gibbs157
8.4 Résultats numériques161
8.4.1 Année 1995161
8.4.2 Cinq années de données163
8.5 Discussion164
8.5.1 Le rôle du prior164
8.5.2 Le choix du modèle165
8.5.3 Confusion des effets et importance du prior165
9 Le modèle linéaire généralisé
169
9.1 Introduction169
9.2 Retour sur le modèle linéaire classique170
9.3 Le modèle linéaire généralisé172
9.3.1 Le GLM répond à ces limitations173
9.3.2 D'un point de vue pratique175
9.4 La régression logistique176
9.4.1 La transformation logit176
9.4.2 La régression logistique177
9.4.3 Les prothésistes dentaires seraient-ils particulièrement exposés
aux pneumoconioses ?178
9.4.4 Évaluation de l'action conjointe de deux produits181
9.4.5 Régression logistique avec le modèle de Finney (1971)182
10 Assemblage de modules fonctionnels normaux
185
10.1 Introduction186
10.2 Construire un modèle comme on joue au Lego188
10.2.1 Les moyens à mettre en oeuvre189
10.2.2 Les modèles, leur définition, leurs liens189
10.3 Régression linéaire (M1)191
10.3.1 Formulation du modèle M1192
10.3.2 Les conditionnelles complètes192
10.3.3 Compléments sur le prior193
10.4 Un AR1 pour représenter la dépendance temporelle (M2)193
10.4.1 Formulation du modèle M2194
10.4.2 Les conditionnelles complètes194
10.5 Modèle linéaire à résidus autocorrélés (M3)195
10.5.1 Formulation du modèle M3195
10.5.2 Prior des paramètres du modèle M3196
10.5.3 Conditionnelles complètes du modèle M3196
10.5.4 Spécification des priors du modèle M3197
10.5.5 Applications198
10.6 Modèle avec erreur sur variables explicatives (M4)200
10.6.1 Formulation du modèle M4200
10.6.2 Spécification du paramètre Phi202
10.6.3 Influence de l'erreur sur la température202
10.7 Une brique de LEGO supplémentaire d'expression multinomiale202
10.7.1 Formulation du modèle M5203
10.7.2 Conditionnelles complètes du modèle probit (M5)206
10.7.3 Application du modèle multinomial probit (M5)207
11 Évaluation de la pollution indoor
211
11.1 Introduction212
11.2 Expérimentation et approche classique212
11.2.1 Modélisation du taux d'émission213
11.2.2 Modélisation du changement de masse du polluant213
11.2.3 Brève étude critique du travail publié214
11.2.4 Discussion215
11.3 Bruiter le modèle déterministe216
11.3.1 Une stratégie de modélisation des incertitudes216
11.3.2 Application de la règle de Bayes217
11.3.3 Résultats218
12 Les avantages de la modélisation hiérarchique
221
12.1 Données222
12.2 Modèle de capture-marquage-recapture222
12.2.1 Modèle Bernoulli d'aléa pour la première phase223
12.2.2 Modèle Bernoulli d'aléa pour la seconde phase224
12.3 Modèle bayésien hiérarchique échangeable225
12.4 Modèle bayésien annuel228
12.5 Choix des distributions a priori et analyse de sensibilité229
12.5.1 Priors du modèle avec indépendance annuelle229
12.5.2 Priors à deux étages du modèle hiérarchique230
12.6 Résultats231
13 Modèles de changements cachés
237
13.1 Introduction238
13.1.1 Trois exemples hydrométéorologiques239
13.2 La modélisation des changements240
13.2.1 Modèle M1 : 1 seule rupture240
13.2.2 Modèle Mk : k ruptures241
13.2.3 Modèle Ma (autorégressif, k ruptures)243
13.3 Représentation des distributions a priori243
13.3.1 Prior pour les dates244
13.3.2 Prior pour les autres paramètres246
13.4 Étude du modèle Mk247
13.5 Méthode d'inférence249
13.6 Choix de k :
ou sélection bayésienne de modèles250
13.6.1 Le facteur de Bayes250
13.6.2 Facteur de Bayes et rapport de vraisemblance250
13.6.3 Choix de modèle251
13.6.4 Note sur le choix de modèle251
13.6.5 Avantages et inconvénients des facteurs de Bayes252
13.7 Applications253
13.7.1 Application aux modules annuels du Sénégal253
13.7.2 Application aux apports énergétiques annuels du Saint-Laurent
(1943-2000)254
13.7.3 Application du modèle Ma au Saint-Laurent256
13.7.4 Débits maximaux annuels de la Dordogne à Cenac258
13.8 Discussion260
14 Conclusion
263
Annexes
265
A Annexe du chapitre 1
267
B Annexe du chapitre 2
273
C Annexe du chapitre 6
279
D Annexe du chapitre 9
287
E Annexe du chapitre 10
293
F Annexe du chapitre 11
305
G Annexe du chapitre 12
307
H Annexe du chapitre 13
313
Bibliographie
325
Index
331