Optimisation en traitement du signal et de l'image
Lavoisier
Introduction
19
Patrick Siarry
Chapitre 1. Modélisation et optimisation en analyse d'images
29
Jean Louchet
1.1. La modélisation à la source de l'analyse et de la synthèse d'images29
1.2. De la synthèse à l'analyse d'images30
1.3. Modèles géométriques de scènes et segmentation d'images31
1.4. Inversion directe de modèles et transformation de Hough32
1.4.1. Transformation de Hough déterministe32
1.4.2. Exploration stochastique des paramètres : Hough évolutionnaire32
1.4.3. Exemples de généralisations35
1.5. Optimisation et modélisation physique37
1.5.1. Modélisation photométrique37
1.5.2. Modélisation du mouvement37
1.5.2.1. Modélisation cinématique37
1.5.2.2. Modélisation physique38
1.6. Conclusion40
1.7. Bibliographie40
Chapitre 2. Evolution artificielle et approche parisienne :
applications en traitement de signal et d'image
43
Pierre Collet, Jean Louchet
2.1. Introduction43
2.2. Approche parisienne pour les algorithmes évolutionnaires43
2.3. Application de l'approche parisienne au problème inverse des IFS45
2.3.1. Choix des individus pour l'évaluation46
2.3.2. Rétribution des individus47
2.3.2.1. Rétribution individuelle47
2.3.2.2. Rétribution globale48
2.4. Résultats obtenus sur le problème inverse des IFS49
2.5. Conclusion sur l'utilisation de l'approche parisienne
sur le problème inverse des IFS50
2.6. Représentation collective : l'approche parisienne et l'algorithme
des mouches51
2.6.1. Les principes52
2.6.2. Résultats sur images réelles56
2.6.2.1. Stéréovision classique56
2.6.3. Application en robotique : planification à base de mouches58
2.6.4. Fusion de capteurs61
2.6.4.1. Fusion de capteurs extéroceptifs : une fitness multicapteurs63
2.6.4.2. Fusion de capteurs proprioceptifs :
l'opérateur génétique de proprioception64
2.6.5. Evolution artificielle et temps réel66
2.6.6. Conclusion sur l'algorithme des mouches68
2.7. Conclusion69
2.8. Bibliographie70
Chapitre 3. Ondelettes et fractales pour l'analyse du signal et de l'image
Abdeljalil Ouahabi, Djedjiga Aït Aouit73
3.1. Introduction73
3.2. Généralités sur les fractales74
3.2.1. Fractales et paradoxe74
3.2.2. Ensembles fractals et autosimilarités75
3.2.2.1. Le flocon de Von Koch75
3.2.2.2. L'ensemble de Cantor77
3.2.3. Notion de dimension fractale77
3.2.3.1. Quelques définitions78
3.3. Analyse multifractale des signaux81
3.3.1. Notions de régularité82
3.3.1.1. Exposant de rugosité (exposant de Hurst)82
3.3.1.2. La régularité locale (exposant de Hölder)83
3.3.2. Spectre multifractal85
3.4. Répartition des singularités par ondelettes87
3.4.1. Approche qualitative87
3.4.2. Bref aperçu du monde des ondelettes88
3.4.3. Maxima du module de la transformée en ondelettes (MMTO)90
3.4.4. Spectre de singularités et ondelettes94
3.4.5. MMTO de quelques signaux didactiques95
3.5. Expérimentation97
3.5.1. Analyse fractale des structures d'images : application en microbiologie97
3.5.2. Classification de texture par MMTO : application en imagerie médicale99
3.6. Conclusion103
3.7. Bibliographie104
Chapitre 4. Les critères d'information : exemples d'applications en traitement
du signal et des images
105
Christian Olivier, Olivier Alata
4.1. Introduction et contexte de l'étude105
4.2. Aperçu des différents critères107
4.3. Cas des modèles Auto-Régressifs (AR)109
4.3.1. Origine, écriture et performances des différents critères
sur exemples simulés109
4.3.2. AR et segmentation d'images : première approche113
4.3.3. Extension aux AR 2-D et application à la modélisation de textures115
4.3.4. AR et segmentation d'images : deuxième approche par AR 2-D118
4.4. Application à la classification non supervisée121
4.5. Approche de lois par histogramme124
4.5.1. Aspect théorique124
4.5.2. Deux applications en codage d'image125
4.6. Quelques autres applications...128
4.6.1. Application à la recherche de l'ordre des modèles de Markov128
4.6.2. Fusion de données130
4.7. Conclusion131
4.8. Annexes131
4.8.1. Information de Kullback-Leibler131
4.8.2. Conditions de convergence de Nishii131
4.9. Bibliographie132
Chapitre 5. Programmation quadratique et apprentissage.
Grande taille et parcimonie
137
Gaëlle Loosli, Stéphane Canu
5.1. Introduction137
5.2. Apprentissage et optimisation138
5.2.1. Cadre général139
5.2.2. Cadre fonctionnel140
5.2.3. Coût et régularisation142
5.2.4. Sur les objectifs d'un apprentissage réaliste143
5.3. De l'apprentissage à la programmation quadratique143
5.3.1. Forme primale, forme duale143
5.3.1.1. Classification binaire : SVM à marge douce143
5.3.1.2. Classification à une classe : OC-SVM144
5.3.1.3. Régression : SVR145
5.4. Méthodes de résolution146
5.4.1. La propriété utilisée : la parcimonie146
5.4.2. Les outils utilisés146
5.4.3. Structure commune des algorithmes de résolution147
5.4.4. Méthodes de décomposition148
5.4.5. Résolution d'un problème quadratique149
5.4.5.1. Méthodes de point intérieur149
5.4.5.2. Méthodes de contraintes actives150
5.4.6. Méthodes en ligne et non optimales152
5.4.7. Comparaisons154
5.5. Expériences154
5.5.1. Comparaison de la complexité empirique155
5.5.2. Très grande base de données156
5.6. Conclusion159
5.7. Bibliographie160
Chapitre 6. Modélisation probabiliste de politiques et leurs optimisations
pour la planification de capteurs
163
Frédéric Dambreville, Francis Celeste, Cécile Simonin
6.1. Le continu comme forme de l'oubli163
6.2. La méthode de cross-entropie165
6.2.1. Probabilité d'un évènement rare166
6.2.1.1. Méthodes d'échantillonnage166
6.2.1.2. Méthode d'échantillonnage par cross-entropie167
6.2.2. Méthode d'optimisation par cross-entropie169
6.2.2.1. Algorithmes170
6.2.2.2. Un exemple simple171
6.3. Exemple de mise en oeuvre de la CE pour la surveillance172
6.3.1. Présentation du problème173
6.3.2. Optimisation de l'allocation de ressources175
6.3.3. L'affectation capteurs-zones176
6.3.4. Mise en oeuvre177
6.4. Exemple de mise en oeuvre de la CE pour l'exploration179
6.4.1. Présentation du problème179
6.4.2. Application de la cross-entropie182
6.4.3. Analyse d'un exemple simple183
6.5. Contrôle optimal avec observation partielle185
6.5.1. Décision en environnement partiellement observé186
6.5.2. Mise en oeuvre de la cross-entropie189
6.5.3. Exemple190
6.5.3.1. Définition190
6.5.3.2. Résultats191
6.6. Conclusion192
6.7. Bibliographie193
Chapitre 7. Optimisation des émissions pour la trajectographie
et la poursuite de cibles mobiles
195
Jean-Pierre Le Cadre
7.1. Introduction195
7.2. Formulation élémentaire du problème (cas déterministe)196
7.2.1. Une mesure de l'estimalité du problème196
7.2.2. Le cadre de calcul des produits extérieurs199
7.3. Application à l'optimisation des émissions (cas déterministe)201
7.3.1. Le cas d'une cible manoeuvrante207
7.4. Le cas d'une cible de trajectoire markovienne208
7.5. Conclusion215
7.6. Annexe A : sur la monotonicité d'une fonctionnelle matricielle216
7.7. Bibliographie219
Chapitre 8. Inférence bayésienne et approches markoviennes
221
Christophe Collet
8.1. Introduction et cadre applicatif221
8.2. Détection, segmentation et classification222
8.3. Modélisation générale225
8.3.1. Modélisation markovienne225
8.3.2. Inférence bayésienne226
8.4. Segmentation par modèle markovien causal en échelle226
8.5. Stratégie de segmentation en trois classes229
8.6. Stratégie de classification d'objets233
8.7. Stratégie de classification des fonds marins238
8.8. Conclusion et perspectives241
8.9. Bibliographie242
Chapitre 9. Utilisation des modèles de Markov cachés pour la reconnaissance
robuste d'images : apprentissage par colonie de fourmis, algorithme génétique
et essaim particulaire
245
Sébastien Aupetit, Nicolas Monmarché, Mohamed Slimane
9.1. Introduction245
9.2. Les modèles de Markov cachés (MMC)246
9.2.1. Définition246
9.2.2. Les critères d'apprentissage248
9.3. L'apprentissage de modèles de Markov cachés par des métaheuristiques249
9.3.1. Les espaces de solutions pour l'apprentissage de MMC250
9.3.1.1. L'espace de solutions A250
9.3.1.2. L'espace de solutions ST250
9.3.1.3. L'espace de solutions Omega250
9.3.2. Les métaheuristiques d'apprentissage de MMC251
9.4. Description, réglage et évaluation de six approches pour l'apprentissage
de MMC252
9.4.1. Les algorithmes génétiques252
9.4.2. L'algorithme API254
9.4.3. L'optimisation par essaim particulaire256
9.4.4. Comparaison des métaheuristiques du point de vue comportemental259
9.4.5. Réglage des algorithmes260
9.4.6. Comparaison des performances262
9.5. Conclusion264
9.6. Bibliographie266
Chapitre 10. Métaheuristiques biologiques pour la détection
de la signalisation routière
271
Guillaume Dutilleux, Pierre Charbonnier
10.1. Introduction271
10.2. Lien avec les travaux existants272
10.3. Forme prototype et déformations274
10.4. Le problème d'estimation274
10.4.1. Terme a priori275
10.4.2. Energie image275
10.4.2.1. Utilisation de l'information de gradient275
10.4.2.2. Mise à profit de l'information de couleur276
10.5. Trois métaheuristiques biologiques278
10.5.1. Stratégies d'évolution278
10.5.1.1. Algorithme279
10.5.1.2. Théorie et convergence281
10.5.1.3. Pratique281
10.5.1.4. Application au problème de détection281
10.5.2. Sélection clonale (CS)282
10.5.2.1. Quelques mots sur le système immunitaire282
10.5.2.2. Présentation de l'algorithme283
10.5.2.3. Performance et convergence284
10.5.2.4. Application au problème de détection285
10.5.3. Essaim de particules285
10.6. Résultats expérimentaux285
10.6.1. Préliminaires285
10.6.1.1. Compléments sur la définition du détecteur285
10.6.1.2. Etablissement de la vérité terrain286
10.6.1.3. Définition de courbes COR287
10.6.2. Evaluation sur CD3288
10.7. Conclusion289
10.8. Bibliographie292
Chapitre 11. Métaheuristiques en variables continues. Exemple du recalage
des images d'angiographie rétinienne
295
Johann Dréo, Jean-Claude Nunes, Patrick Siarry
11.1. Introduction295
11.2. Métaheuristiques pour l'«optimisation difficile»296
11.2.1. Optimisation difficile296
11.2.1.1. Problème d'optimisation296
11.2.1.2. «Optimisation difficile»297
11.2.2. Algorithmes d'optimisation approchée297
11.2.2.1. Heuristiques297
11.2.2.2. Métaheuristiques298
11.2.2.3. Algorithmes de colonies de fourmis299
11.2.2.4. Algorithmes à estimation de distribution300
11.3. Recalage d'angiographies rétiniennes300
11.3.1. Méthodes existantes300
11.3.1.1. Images d'angiographies rétiniennes301
11.3.1.2. Prétraitement301
11.3.1.3. Méthodes de recalage classiques302
11.3.2. Méthode proposée pour le recalage304
11.3.2.1. Algorithme304
11.3.2.2. Critère de similarité304
11.4. Optimisation du recalage305
11.4.1. Fonction objectif305
11.4.2. Algorithme de Nelder-Mead305
11.4.3. HCIAC309
11.4.4. CHEDA311
11.4.5. Réglage313
11.5. Résultats314
11.5.1. Tests préliminaires314
11.5.2. Robustesse315
11.5.3. Cas typiques318
11.5.4. Problèmes connexes318
11.5.4.1. Recalage périphérique319
11.5.4.2. Recalage affine319
11.6. Discussion320
11.7. Conclusion321
11.8. Bibliographie322
Chapitre 12. Estimation conjointe de la dynamique et de la forme de signaux
physiologiques par les algorithmes génétiques
325
Amine Naït-Ali, Patrick Siarry
12.1. Introduction325
12.2. Les potentiels évoqués auditifs précoces326
12.2.1. Mode d'acquisition des PEAP327
12.3. Traitement des potentiels évoqués auditifs précoces327
12.4. Les Algorithmes Génétiques329
12.5. La non stationnarité dynamique des PEAP330
12.5.1. Validation de l'approche sur des signaux simulés336
12.5.1.1. Désynchronisation aléatoire à distribution gaussienne337
12.5.1.2. Désynchronisation non gaussienne340
12.5.2. Validation de l'approche sur des signaux réels343
12.5.3. Accélération du temps de convergence de l'algorithme génétique344
12.6. La non stationnarité de la forme des PEAP347
12.7. Conclusion350
12.8. Bibliographie350
Chapitre 13. Aide au paramétrage d'implants cochléaires par algorithme
évolutionnaire interactif
351
Pierre Collet, Pierrick Legrand, Claire Bourgeois-République, Vincent Péan,
Bruno Frachet
13.1. Introduction351
13.1.1. Paramétrage du processeur352
13.1.2. Interaction avec le patient353
13.2. Choix de l'algorithme d'optimisation354
13.3. Spécialisation de l'algorithme évolutionnaire pour le paramétrage
d'implants cochléaires356
13.3.1. Initialisation357
13.3.2. Sélection des parents358
13.3.3. Croisement358
13.3.4. Mutation359
13.3.5. Remplacement359
13.4. Evaluation359
13.5. Expérimentations360
13.5.1. Première expérimentation avec le patient A360
13.5.1.1. Test psychophysique361
13.5.1.2. Evaluation des réglages du praticien (BTE et boîtier)361
13.5.1.3. Expérimentation 1 et résultats361
13.5.1.4. Expérimentation 2 et résultats362
13.5.1.5. Expérimentation 3 et résultats362
13.5.1.6. Expérimentation 4 et résultats363
13.5.1.7. Expérimentation 5 et résultats363
13.5.2. Analyse des résultats364
13.5.3. Deuxième campagne : vérification des hypothèses365
13.5.3.1. Expérimentation 7 : minimisation de C-T = suppression
d'une électrode ?366
13.5.3.2. Expérimentation 8 : étude de l'influence de l'électrode 8366
13.5.3.3. Expérimentation 9 : y a-t-il diaphonie entre les électrodes ?367
13.5.3.4. Expérimentation 10 : espacement plus large des électrodes367
13.5.3.5. Expérimentation 11 : évaluation du meilleur individu de C1368
13.5.3.6. Expérimentation 12 : évaluation du réglage du praticien368
13.5.3.7. Autres expérimentations369
13.5.4. Troisième expérimentation avec d'autres patients369
13.6. Points soulevés sur le plan médical371
13.7. Conclusions algorithmiques pour le patient A372
13.8. Conclusion374
13.9. Bibliographie374
Index
377