• Aide
  • Eurêkoi Eurêkoi

Livre

Optimisation en traitement du signal et de l'image

Résumé

Etude de quelques uns des outils théoriques utilisés dans le domaine du traitement du signal et de l'image : l'évolution artificielle et l'approche parisienne, les ondelettes et les fractales, les critères d'information, l'apprentissage et la programmation quadratique, le formalisme bayésien, la modélisation probabiliste...


  • Éditeur(s)
  • Date
    • 2007
  • Langues
    • Français
  • Description matérielle
    • 1 vol. (379-XI p.) : ill. ; 24 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 2-7462-1463-7
  • Indice
    • 621.4 Électronique appliquée, théorie du signal
  • Quatrième de couverture
    • Le traité Information, Commande, Communication répond au besoin de disposer d'un ensemble complet des connaissances et méthodes nécessaires à la maîtrise des systèmes technologiques.

      Conçu volontairement dans un esprit d'échange disciplinaire, le traité IC2 est l'état de l'art dans les domaines suivants retenus par le comité scientifique :

      Réseaux et télécoms

      Traitement du signal et de l'image

      Information et science du vivant

      Informatique et systèmes d'information

      Systèmes automatisés et productique

      Management et gestion des STICS

      Cognition et traitement de l'information.

      Chaque ouvrage présente aussi bien les aspects fondamentaux qu'expérimentaux. Une classification des différents articles contenus dans chacun, une bibliographie et un index détaillé orientent le lecteur vers ses points d'intérêt immédiats : celui-ci dispose ainsi d'un guide pour ses réflexions ou pour ses choix.

      Les savoirs, théories et méthodes rassemblés dans chaque ouvrage ont été choisis pour leur pertinence dans l'avancée des connaissances ou pour la qualité des résultats obtenus dans le cas d'expérimentations réelles.


  • Tables des matières
      • Optimisation en traitement du signal et de l'image

      • Lavoisier

      • Introduction 19
      • Patrick Siarry
      • Chapitre 1. Modélisation et optimisation en analyse d'images 29
      • Jean Louchet
      • 1.1. La modélisation à la source de l'analyse et de la synthèse d'images29
      • 1.2. De la synthèse à l'analyse d'images30
      • 1.3. Modèles géométriques de scènes et segmentation d'images31
      • 1.4. Inversion directe de modèles et transformation de Hough32
      • 1.4.1. Transformation de Hough déterministe32
      • 1.4.2. Exploration stochastique des paramètres : Hough évolutionnaire32
      • 1.4.3. Exemples de généralisations35
      • 1.5. Optimisation et modélisation physique37
      • 1.5.1. Modélisation photométrique37
      • 1.5.2. Modélisation du mouvement37
      • 1.5.2.1. Modélisation cinématique37
      • 1.5.2.2. Modélisation physique38
      • 1.6. Conclusion40
      • 1.7. Bibliographie40
      • Chapitre 2. Evolution artificielle et approche parisienne : applications en traitement de signal et d'image 43
      • Pierre Collet, Jean Louchet
      • 2.1. Introduction43
      • 2.2. Approche parisienne pour les algorithmes évolutionnaires43
      • 2.3. Application de l'approche parisienne au problème inverse des IFS45
      • 2.3.1. Choix des individus pour l'évaluation46
      • 2.3.2. Rétribution des individus47
      • 2.3.2.1. Rétribution individuelle47
      • 2.3.2.2. Rétribution globale48
      • 2.4. Résultats obtenus sur le problème inverse des IFS49
      • 2.5. Conclusion sur l'utilisation de l'approche parisienne sur le problème inverse des IFS50
      • 2.6. Représentation collective : l'approche parisienne et l'algorithme des mouches51
      • 2.6.1. Les principes52
      • 2.6.2. Résultats sur images réelles56
      • 2.6.2.1. Stéréovision classique56
      • 2.6.3. Application en robotique : planification à base de mouches58
      • 2.6.4. Fusion de capteurs61
      • 2.6.4.1. Fusion de capteurs extéroceptifs : une fitness multicapteurs63
      • 2.6.4.2. Fusion de capteurs proprioceptifs : l'opérateur génétique de proprioception64
      • 2.6.5. Evolution artificielle et temps réel66
      • 2.6.6. Conclusion sur l'algorithme des mouches68
      • 2.7. Conclusion69
      • 2.8. Bibliographie70
      • Chapitre 3. Ondelettes et fractales pour l'analyse du signal et de l'image
      • Abdeljalil Ouahabi, Djedjiga Aït Aouit73
      • 3.1. Introduction73
      • 3.2. Généralités sur les fractales74
      • 3.2.1. Fractales et paradoxe74
      • 3.2.2. Ensembles fractals et autosimilarités75
      • 3.2.2.1. Le flocon de Von Koch75
      • 3.2.2.2. L'ensemble de Cantor77
      • 3.2.3. Notion de dimension fractale77
      • 3.2.3.1. Quelques définitions78
      • 3.3. Analyse multifractale des signaux81
      • 3.3.1. Notions de régularité82
      • 3.3.1.1. Exposant de rugosité (exposant de Hurst)82
      • 3.3.1.2. La régularité locale (exposant de Hölder)83
      • 3.3.2. Spectre multifractal85
      • 3.4. Répartition des singularités par ondelettes87
      • 3.4.1. Approche qualitative87
      • 3.4.2. Bref aperçu du monde des ondelettes88
      • 3.4.3. Maxima du module de la transformée en ondelettes (MMTO)90
      • 3.4.4. Spectre de singularités et ondelettes94
      • 3.4.5. MMTO de quelques signaux didactiques95
      • 3.5. Expérimentation97
      • 3.5.1. Analyse fractale des structures d'images : application en microbiologie97
      • 3.5.2. Classification de texture par MMTO : application en imagerie médicale99
      • 3.6. Conclusion103
      • 3.7. Bibliographie104
      • Chapitre 4. Les critères d'information : exemples d'applications en traitement du signal et des images 105
      • Christian Olivier, Olivier Alata
      • 4.1. Introduction et contexte de l'étude105
      • 4.2. Aperçu des différents critères107
      • 4.3. Cas des modèles Auto-Régressifs (AR)109
      • 4.3.1. Origine, écriture et performances des différents critères sur exemples simulés109
      • 4.3.2. AR et segmentation d'images : première approche113
      • 4.3.3. Extension aux AR 2-D et application à la modélisation de textures115
      • 4.3.4. AR et segmentation d'images : deuxième approche par AR 2-D118
      • 4.4. Application à la classification non supervisée121
      • 4.5. Approche de lois par histogramme124
      • 4.5.1. Aspect théorique124
      • 4.5.2. Deux applications en codage d'image125
      • 4.6. Quelques autres applications...128
      • 4.6.1. Application à la recherche de l'ordre des modèles de Markov128
      • 4.6.2. Fusion de données130
      • 4.7. Conclusion131
      • 4.8. Annexes131
      • 4.8.1. Information de Kullback-Leibler131
      • 4.8.2. Conditions de convergence de Nishii131
      • 4.9. Bibliographie132
      • Chapitre 5. Programmation quadratique et apprentissage. Grande taille et parcimonie 137
      • Gaëlle Loosli, Stéphane Canu
      • 5.1. Introduction137
      • 5.2. Apprentissage et optimisation138
      • 5.2.1. Cadre général139
      • 5.2.2. Cadre fonctionnel140
      • 5.2.3. Coût et régularisation142
      • 5.2.4. Sur les objectifs d'un apprentissage réaliste143
      • 5.3. De l'apprentissage à la programmation quadratique143
      • 5.3.1. Forme primale, forme duale143
      • 5.3.1.1. Classification binaire : SVM à marge douce143
      • 5.3.1.2. Classification à une classe : OC-SVM144
      • 5.3.1.3. Régression : SVR145
      • 5.4. Méthodes de résolution146
      • 5.4.1. La propriété utilisée : la parcimonie146
      • 5.4.2. Les outils utilisés146
      • 5.4.3. Structure commune des algorithmes de résolution147
      • 5.4.4. Méthodes de décomposition148
      • 5.4.5. Résolution d'un problème quadratique149
      • 5.4.5.1. Méthodes de point intérieur149
      • 5.4.5.2. Méthodes de contraintes actives150
      • 5.4.6. Méthodes en ligne et non optimales152
      • 5.4.7. Comparaisons154
      • 5.5. Expériences154
      • 5.5.1. Comparaison de la complexité empirique155
      • 5.5.2. Très grande base de données156
      • 5.6. Conclusion159
      • 5.7. Bibliographie160
      • Chapitre 6. Modélisation probabiliste de politiques et leurs optimisations pour la planification de capteurs 163
      • Frédéric Dambreville, Francis Celeste, Cécile Simonin
      • 6.1. Le continu comme forme de l'oubli163
      • 6.2. La méthode de cross-entropie165
      • 6.2.1. Probabilité d'un évènement rare166
      • 6.2.1.1. Méthodes d'échantillonnage166
      • 6.2.1.2. Méthode d'échantillonnage par cross-entropie167
      • 6.2.2. Méthode d'optimisation par cross-entropie169
      • 6.2.2.1. Algorithmes170
      • 6.2.2.2. Un exemple simple171
      • 6.3. Exemple de mise en oeuvre de la CE pour la surveillance172
      • 6.3.1. Présentation du problème173
      • 6.3.2. Optimisation de l'allocation de ressources175
      • 6.3.3. L'affectation capteurs-zones176
      • 6.3.4. Mise en oeuvre177
      • 6.4. Exemple de mise en oeuvre de la CE pour l'exploration179
      • 6.4.1. Présentation du problème179
      • 6.4.2. Application de la cross-entropie182
      • 6.4.3. Analyse d'un exemple simple183
      • 6.5. Contrôle optimal avec observation partielle185
      • 6.5.1. Décision en environnement partiellement observé186
      • 6.5.2. Mise en oeuvre de la cross-entropie189
      • 6.5.3. Exemple190
      • 6.5.3.1. Définition190
      • 6.5.3.2. Résultats191
      • 6.6. Conclusion192
      • 6.7. Bibliographie193
      • Chapitre 7. Optimisation des émissions pour la trajectographie et la poursuite de cibles mobiles 195
      • Jean-Pierre Le Cadre
      • 7.1. Introduction195
      • 7.2. Formulation élémentaire du problème (cas déterministe)196
      • 7.2.1. Une mesure de l'estimalité du problème196
      • 7.2.2. Le cadre de calcul des produits extérieurs199
      • 7.3. Application à l'optimisation des émissions (cas déterministe)201
      • 7.3.1. Le cas d'une cible manoeuvrante207
      • 7.4. Le cas d'une cible de trajectoire markovienne208
      • 7.5. Conclusion215
      • 7.6. Annexe A : sur la monotonicité d'une fonctionnelle matricielle216
      • 7.7. Bibliographie219
      • Chapitre 8. Inférence bayésienne et approches markoviennes 221
      • Christophe Collet
      • 8.1. Introduction et cadre applicatif221
      • 8.2. Détection, segmentation et classification222
      • 8.3. Modélisation générale225
      • 8.3.1. Modélisation markovienne225
      • 8.3.2. Inférence bayésienne226
      • 8.4. Segmentation par modèle markovien causal en échelle226
      • 8.5. Stratégie de segmentation en trois classes229
      • 8.6. Stratégie de classification d'objets233
      • 8.7. Stratégie de classification des fonds marins238
      • 8.8. Conclusion et perspectives241
      • 8.9. Bibliographie242
      • Chapitre 9. Utilisation des modèles de Markov cachés pour la reconnaissance robuste d'images : apprentissage par colonie de fourmis, algorithme génétique et essaim particulaire 245
      • Sébastien Aupetit, Nicolas Monmarché, Mohamed Slimane
      • 9.1. Introduction245
      • 9.2. Les modèles de Markov cachés (MMC)246
      • 9.2.1. Définition246
      • 9.2.2. Les critères d'apprentissage248
      • 9.3. L'apprentissage de modèles de Markov cachés par des métaheuristiques249
      • 9.3.1. Les espaces de solutions pour l'apprentissage de MMC250
      • 9.3.1.1. L'espace de solutions A250
      • 9.3.1.2. L'espace de solutions ST250
      • 9.3.1.3. L'espace de solutions Omega250
      • 9.3.2. Les métaheuristiques d'apprentissage de MMC251
      • 9.4. Description, réglage et évaluation de six approches pour l'apprentissage de MMC252
      • 9.4.1. Les algorithmes génétiques252
      • 9.4.2. L'algorithme API254
      • 9.4.3. L'optimisation par essaim particulaire256
      • 9.4.4. Comparaison des métaheuristiques du point de vue comportemental259
      • 9.4.5. Réglage des algorithmes260
      • 9.4.6. Comparaison des performances262
      • 9.5. Conclusion264
      • 9.6. Bibliographie266
      • Chapitre 10. Métaheuristiques biologiques pour la détection de la signalisation routière 271
      • Guillaume Dutilleux, Pierre Charbonnier
      • 10.1. Introduction271
      • 10.2. Lien avec les travaux existants272
      • 10.3. Forme prototype et déformations274
      • 10.4. Le problème d'estimation274
      • 10.4.1. Terme a priori275
      • 10.4.2. Energie image275
      • 10.4.2.1. Utilisation de l'information de gradient275
      • 10.4.2.2. Mise à profit de l'information de couleur276
      • 10.5. Trois métaheuristiques biologiques278
      • 10.5.1. Stratégies d'évolution278
      • 10.5.1.1. Algorithme279
      • 10.5.1.2. Théorie et convergence281
      • 10.5.1.3. Pratique281
      • 10.5.1.4. Application au problème de détection281
      • 10.5.2. Sélection clonale (CS)282
      • 10.5.2.1. Quelques mots sur le système immunitaire282
      • 10.5.2.2. Présentation de l'algorithme283
      • 10.5.2.3. Performance et convergence284
      • 10.5.2.4. Application au problème de détection285
      • 10.5.3. Essaim de particules285
      • 10.6. Résultats expérimentaux285
      • 10.6.1. Préliminaires285
      • 10.6.1.1. Compléments sur la définition du détecteur285
      • 10.6.1.2. Etablissement de la vérité terrain286
      • 10.6.1.3. Définition de courbes COR287
      • 10.6.2. Evaluation sur CD3288
      • 10.7. Conclusion289
      • 10.8. Bibliographie292
      • Chapitre 11. Métaheuristiques en variables continues. Exemple du recalage des images d'angiographie rétinienne 295
      • Johann Dréo, Jean-Claude Nunes, Patrick Siarry
      • 11.1. Introduction295
      • 11.2. Métaheuristiques pour l'«optimisation difficile»296
      • 11.2.1. Optimisation difficile296
      • 11.2.1.1. Problème d'optimisation296
      • 11.2.1.2. «Optimisation difficile»297
      • 11.2.2. Algorithmes d'optimisation approchée297
      • 11.2.2.1. Heuristiques297
      • 11.2.2.2. Métaheuristiques298
      • 11.2.2.3. Algorithmes de colonies de fourmis299
      • 11.2.2.4. Algorithmes à estimation de distribution300
      • 11.3. Recalage d'angiographies rétiniennes300
      • 11.3.1. Méthodes existantes300
      • 11.3.1.1. Images d'angiographies rétiniennes301
      • 11.3.1.2. Prétraitement301
      • 11.3.1.3. Méthodes de recalage classiques302
      • 11.3.2. Méthode proposée pour le recalage304
      • 11.3.2.1. Algorithme304
      • 11.3.2.2. Critère de similarité304
      • 11.4. Optimisation du recalage305
      • 11.4.1. Fonction objectif305
      • 11.4.2. Algorithme de Nelder-Mead305
      • 11.4.3. HCIAC309
      • 11.4.4. CHEDA311
      • 11.4.5. Réglage313
      • 11.5. Résultats314
      • 11.5.1. Tests préliminaires314
      • 11.5.2. Robustesse315
      • 11.5.3. Cas typiques318
      • 11.5.4. Problèmes connexes318
      • 11.5.4.1. Recalage périphérique319
      • 11.5.4.2. Recalage affine319
      • 11.6. Discussion320
      • 11.7. Conclusion321
      • 11.8. Bibliographie322
      • Chapitre 12. Estimation conjointe de la dynamique et de la forme de signaux physiologiques par les algorithmes génétiques 325
      • Amine Naït-Ali, Patrick Siarry
      • 12.1. Introduction325
      • 12.2. Les potentiels évoqués auditifs précoces326
      • 12.2.1. Mode d'acquisition des PEAP327
      • 12.3. Traitement des potentiels évoqués auditifs précoces327
      • 12.4. Les Algorithmes Génétiques329
      • 12.5. La non stationnarité dynamique des PEAP330
      • 12.5.1. Validation de l'approche sur des signaux simulés336
      • 12.5.1.1. Désynchronisation aléatoire à distribution gaussienne337
      • 12.5.1.2. Désynchronisation non gaussienne340
      • 12.5.2. Validation de l'approche sur des signaux réels343
      • 12.5.3. Accélération du temps de convergence de l'algorithme génétique344
      • 12.6. La non stationnarité de la forme des PEAP347
      • 12.7. Conclusion350
      • 12.8. Bibliographie350
      • Chapitre 13. Aide au paramétrage d'implants cochléaires par algorithme évolutionnaire interactif 351
      • Pierre Collet, Pierrick Legrand, Claire Bourgeois-République, Vincent Péan, Bruno Frachet
      • 13.1. Introduction351
      • 13.1.1. Paramétrage du processeur352
      • 13.1.2. Interaction avec le patient353
      • 13.2. Choix de l'algorithme d'optimisation354
      • 13.3. Spécialisation de l'algorithme évolutionnaire pour le paramétrage d'implants cochléaires356
      • 13.3.1. Initialisation357
      • 13.3.2. Sélection des parents358
      • 13.3.3. Croisement358
      • 13.3.4. Mutation359
      • 13.3.5. Remplacement359
      • 13.4. Evaluation359
      • 13.5. Expérimentations360
      • 13.5.1. Première expérimentation avec le patient A360
      • 13.5.1.1. Test psychophysique361
      • 13.5.1.2. Evaluation des réglages du praticien (BTE et boîtier)361
      • 13.5.1.3. Expérimentation 1 et résultats361
      • 13.5.1.4. Expérimentation 2 et résultats362
      • 13.5.1.5. Expérimentation 3 et résultats362
      • 13.5.1.6. Expérimentation 4 et résultats363
      • 13.5.1.7. Expérimentation 5 et résultats363
      • 13.5.2. Analyse des résultats364
      • 13.5.3. Deuxième campagne : vérification des hypothèses365
      • 13.5.3.1. Expérimentation 7 : minimisation de C-T = suppression d'une électrode ?366
      • 13.5.3.2. Expérimentation 8 : étude de l'influence de l'électrode 8366
      • 13.5.3.3. Expérimentation 9 : y a-t-il diaphonie entre les électrodes ?367
      • 13.5.3.4. Expérimentation 10 : espacement plus large des électrodes367
      • 13.5.3.5. Expérimentation 11 : évaluation du meilleur individu de C1368
      • 13.5.3.6. Expérimentation 12 : évaluation du réglage du praticien368
      • 13.5.3.7. Autres expérimentations369
      • 13.5.4. Troisième expérimentation avec d'autres patients369
      • 13.6. Points soulevés sur le plan médical371
      • 13.7. Conclusions algorithmiques pour le patient A372
      • 13.8. Conclusion374
      • 13.9. Bibliographie374
      • Index 377

  • Origine de la notice:
    • BPI
  • Disponible - 621.4 SIA

    Niveau 3 - Techniques