Outils d'analyse vidéo
Pour une pleine exploitation des données de vidéoprotection
Hermes Science publications/Lavoisier
Introduction
17
Chapitre 1. Le traitement d'image : bilan et perspectives
23
Henri Maitre
1.1. Il y a un demi-siècle23
1.2. Des images ? Pourquoi ?25
1.3. Forces et faiblesses du traitement des images27
1.3.1. Quels sont les problèmes théoriques que le traitement
d'image n'a pas su surmonter ?27
1.3.2. Quels sont donc les problèmes que le traitement
d'image a résolus ?27
1.4. Que reste-t-il pour le futur ?28
1.5. Bibliographie32
Chapitre 2. Zoom sur les transports ferroviaires
35
Sébastien Ambellouis et Jean-Luc Bruyelle
2.1. Introduction35
2.2. Surveillance des infrastructures ferroviaires37
2.2.1. L'analyse du besoin37
2.2.2. Quelles architectures ?38
2.2.3. Détection et l'analyse d'événements complexes39
2.2.4. Surveillance des infrastructures extérieures42
2.3. Surveillance embarquée43
2.3.1. Surveillance des autobus44
2.3.2. Applications aux transports ferroviaires45
2.4. Conclusion50
2.5. Bibliographie52
Chapitre 3. Analyse a posteriori aux fins d'investigation
55
Denis Marraud, Benjamin Cepas, Jean-François Sulzer,
Christianne Mulat et Florence Sedes
3.1. Introduction55
3.2. Besoins en outils d'assistance à l'investigation56
3.2.1. Prévention et sécurisation56
3.2.2. Renseignement57
3.2.3. Enquête58
3.3. Collecte et stockage de données59
3.3.1. Besoins en normalisation59
3.3.2. Travaux de normalisation (AFNOR et ISO)60
3.4. Exploitation des données61
3.4.1. Indexation par le contenu61
3.4.2. Outils d'assistance à l'investigation65
3.5. Conclusion67
3.6. Bibliographie68
Chapitre 4. Les caméras de vidéosurveillance
69
Cédric Le Barz et Thierry Lamarque
4.1. Introduction69
4.2. Contraintes70
4.2.1. Contraintes économiques70
4.2.2. Contraintes d'environnement71
4.3. Nature de l'information capturée71
4.3.1. Bandes spectrales considérées72
4.3.2. Imagerie 3D ou «2D+Z»73
4.4. Les formats vidéo76
4.5. Technologies77
4.6. Les interfaces : depuis l'analogique vers l'IP79
4.6.1. De l'analogique au numérique80
4.6.2. La montée en puissance de l'IP (Internet Protocol)81
4.6.3. Standards83
4.7. Caméras intelligentes83
4.8. Conclusion85
4.9. Bibliographie86
Chapitre 5. Les formats de compression vidéo
89
Marc Leny et Didier Nicholson
5.1. Introduction89
5.2. Les formats vidéo90
5.2.1. Les signaux vidéo analogiques90
5.2.2. Vidéo numérique : la définition standard (SD)91
5.2.3. La haute définition (HD)92
5.2.4. La famille des formats CIF94
5.3. Principes de la compression vidéo94
5.3.1. La redondance spatiale95
5.3.2. La redondance temporelle97
5.4. Les standards de compression99
5.4.1. MPEG-299
5.4.2. MPEG-4 Part 2100
5.4.3. MPEG-4 Part 10 / H.264 AVC102
5.4.4. MPEG-4 Part 10 / H.264 SVC103
5.4.5. Motion JPEG 2000105
5.4.6. Synthèse sur les formats utilisés en vidéosurveillance106
5.5. Conclusion108
5.6. Bibliographie108
Chapitre 6. Législation, vie privée, sécurité
111
Amal Marc, Carole Pellegrino et Samuel Vinson
6.1. Introduction111
6.2. Contextes d'utilisation et définitions112
6.2.1. Différentes techniques de vidéosurveillance112
6.2.2. Enjeux de la vidéosurveillance113
6.3. Cadre réglementaire du déploiement de la vidéosurveillance114
6.3.1. Cadre légal fragmenté de la vidéoprotection114
6.3.2. Limites de la vidéoprotection : le respect des droits
et libertés des personnes115
6.4. Usage des données de vidéosurveillance117
6.4.1. Modalités techniques d'utilisation des données issues
de la vidéosurveillance117
6.4.2. Cadre légal de l'usage des données à caractère personnel
issues de la vidéosurveillance117
6.4.3. Utilisation des données vidéo aux fins de preuve
dans les procédures judiciaires121
6.4.4. Usage des données vidéo aux fins de recherche scientifique124
6.5. Privacy by Design : l'éthique au service de l'innovation124
6.6. Conclusion126
6.7. Bibliographie126
Chapitre 7. Détection rapide d'activités par analyse
dans le domaine compressé
129
Marc Leny
7.1. Introduction129
7.2. Les méthodes de traitement130
7.2.1. L'utilisation des coefficients transformés
dans le domaine fréquentiel130
7.2.2. L'utilisation de l'estimation de mouvement132
7.2.3. Les approches hybrides134
7.3. Usages de l'analyse dans le domaine compressé136
7.3.1. Architecture générale136
7.3.2. Ce qui fonctionne138
7.3.3. Limitations140
7.4. Conclusion142
7.5. Acronymes employés143
7.6. Bibliographie144
Chapitre 8. Détection d'objets d'intérêt
147
Yoann Dhome, Bertrand Luvison, Thierry Chesnais, Rachid Belaroussi,
Laurent Lucat, Mohamed Chaouch et Patrick Sayd
8.1. Introduction147
8.2. La détection des objets mobiles148
8.2.1. La détection d'objet par modélisation du fond148
8.2.2. Détections d'objets d'intérêt par le mouvement151
8.3. Détection par modélisation des objets d'intérêt154
8.3.1. Détection par modélisation géométrique154
8.3.2. Détection par modélisation visuelle156
8.4. Conclusion162
8.5. Bibliographie163
Chapitre 9. Suivi d'objets d'intérêt dans une séquence d'images
167
Simona Maggio, Jean-Emmanuel Haugeard, Boris Meden,
Bertrand Luvison, Romaric Audigier, Brice Burger
et Quoc Cuong Pham
9.1. Introduction167
9.2. Représentation des objets d'intérêt et primitives
visuelles associées168
9.2.1. Géométrie169
9.2.2. Caractéristiques d'apparence170
9.3. Espaces géométriques de travail171
9.4. Algorithmes de suivi d'objets172
9.4.1. Approches déterministes172
9.4.2. Approches probabilistes173
9.5. Mise à jour des modèles d'apparence177
9.6. Suivi multicibles180
9.6.1. MHT, JPDAF180
9.6.2. Techniques d'échantillonnage MCMC et RJMCMC180
9.6.3. Filtres interactifs, graphe de piste183
9.7. Suivi d'objets à l'aide d'une caméra pan-tilt-zoom183
9.7.1. Suivi d'objets à l'aide d'une caméra PTZ seule184
9.7.2. Suivi d'objets à l'aide d'une caméra PTZ couplée
à une caméra statique184
9.8. Conclusion186
9.9. Bibliographie187
Chapitre 10. Suivi d'objets d'intérêt dans un réseau de caméras
193
Catherine Achard, Sébastien Ambellouis, Boris Meden,
Sébastien Lefebvre et Dung Nghi Truong Cong
10.1. Introduction193
10.2. Suivi dans un réseau de caméras dont les champs
de vue se recouvrent194
10.2.1. Introduction et applications194
10.2.2. Calibrage et synchronisation d'un réseau de caméras196
10.2.3. Description de la scène par agrégation multicaméras199
10.3. Suivi dans un réseau de caméras à champs de vue non recouvrant201
10.3.1. Enjeux et applications201
10.3.2. Calibrage géométrique et/ou photométrique
du réseau de caméras202
10.3.3. Ré-identification d'objets d'intérêt
dans un réseau de caméras204
10.3.4. Reconnaissance d'activités/détection d'évènements
dans un réseau de caméras207
10.4. Conclusion207
10.5. Bibliographie208
Chapitre 11. Techniques de biométrie appliquées
à la vidéosurveillance
213
Bernadette Dorizzi et Samuel Vinson
11.1. Introduction213
11.2. Les bases de données utilisées pour l'évaluation215
11.2.1. NIST-MBGC (Multiple Biometrics Grand Challenge)215
11.2.2. Bases de données de visages215
11.3. Reconnaissance par le visage216
11.3.1. Détection des visages216
11.3.2. Reconnaissance des visages en biométrie217
11.3.3. Application à la vidéosurveillance219
11.4. Reconnaissance par l'iris221
11.4.1. Méthodes développées pour la biométrie221
11.4.2. Application à la vidéosurveillance223
11.4.3. Les systèmes de capture de l'iris dans les vidéos225
11.4.4. Synthèse, perspectives226
11.5. Projets de recherche226
11.6. Conclusion227
11.7. Bibliographie228
Chapitre 12. Reconnaissance de véhicules pour la vidéosurveillance
233
Stéphane Herbin
12.1. Introduction233
12.2. Spécificité du contexte234
12.2.1. Des objets particuliers234
12.2.2. Des chaînes intégrées complexes235
12.3. Modélisation des véhicules235
12.3.1. Modèles filaires236
12.3.2. Modèles texturés globaux237
12.3.3. Modèles structurés238
12.4. Exploitation des modèles d'objet239
12.4.1. Une chaîne classique de performance limitée240
12.4.2. Améliorer l'extraction de formes240
12.4.3. Inférer des informations 3D241
12.4.4. Reconnaître sans extraire de forme243
12.4.5. Vers une description plus fine des véhicules243
12.5. Augmenter l'observabilité245
12.5.1. Observateur mobile245
12.5.2. Observateurs multiples246
12.6. Performances247
12.7. Conclusion247
12.8. Bibliographie248
Chapitre 13. Reconnaissance d'activités
253
Bernard Boulay et François Bremond
13.1. Introduction253
13.2. Etat de l'art254
13.2.1. Les niveaux d'abstraction254
13.2.2. Modélisation et reconnaissance d'activités255
13.2.3. Synthèse de l'état de l'art259
13.3. Ontologie259
13.3.1. Les objets d'intérêt259
13.3.2. Les modèles de scénarios261
13.3.3. Les opérateurs262
13.3.4. Synthèse263
13.4. Approche proposée : le système ScReK263
13.5. Illustrations265
13.5.1. Application aéroport265
13.5.2. Modélisation de comportement de personnes âgées267
13.6. Conclusion267
13.7. Bibliographie268
Chapitre 14. Méthodes non supervisées pour l'analyse d'activités
et la détection d'évènements anormaux
271
Rémi Emonet et Jean-Marc Odobez
14.1. Introduction271
14.2. Un exemple de modèle à thème : PLSA273
14.2.1. Introduction273
14.2.2. Le modèle PLSA274
14.2.3. PLSA appliqué aux vidéos276
14.3. PLSM et modèles temporels279
14.3.1. Modèle PLSM279
14.3.2. Motifs extraits par PLSM281
14.4. Applications : comptage, détection d'anomalies282
14.4.1. Comptage283
14.4.2. Détection d'anormalité283
14.4.3. Sélection de capteurs285
14.4.4. Prédiction et statistiques285
14.5. Conclusion285
14.6. Bibliographie286
Chapitre 15. Data Mining dans une base de données vidéo
287
Luis Patino, Hamid Benhadda et François Brémond
15.1. Introduction287
15.2. Etat de l'art288
15.3. Prétraitement des données289
15.4. Analyse d'activité et classification automatique291
15.4.1. Apprentissage non supervisé de zones d'activité291
15.4.2. Définition de comportements295
15.4.3. Analyse relationnelle295
15.5. Résultats et évaluations297
15.6. Conclusion301
15.7. Bibliographie301
Chapitre 16. Analyse de scènes de foule en vidéo
303
Mikel Rodriguez, Josef Sivic et Ivan Laptev
16.1. Introduction303
16.2. Revue de la littérature305
16.2.1. Modélisation et segmentation du mouvement de foule305
16.2.2. Estimation de la densité de foule306
16.2.3. Modélisation et reconnaissance d'évènements de foule307
16.2.4. Détection et suivi dans une scène de foule308
16.3. Analyse de foule data-driven dans les vidéos309
16.3.1. Analyse hors ligne de la base de données vidéo de foule310
16.3.2. Appariement311
16.3.3. Le transfert des comportements de foule appris313
16.3.4. Expérimentations et résultats313
16.4. Détection et suivi density-aware de personnes dans des foules315
16.4.1. Modèle de foule317
16.4.2. Suivi de détections319
16.4.3. Evaluation319
16.5. Conclusion et directions pour des recherches futures322
16.6. Remerciements323
16.7. Bibliographie323
Chapitre 17. Détection du contexte visuel
327
Hervé Le Borgne et Aymen Shabou
17.1. Introduction327
17.2. Etat de l'art de la détection du contexte visuel329
17.2.1. Schéma général329
17.2.2. Description visuelle330
17.2.3. Apprentissage multiclasses333
17.3. Algorithme rapide de boosting à partage de caractéristiques333
17.4. Expérimentations335
17.4.1. Détection de bateau dans le canal de Panama336
17.4.2. Détection du contexte visuel en vidéosurveillance338
17.5. Conclusion340
17.6. Bibliographie340
Chapitre 18. Plate-forme d'évaluation opérationnelle :
exemple du PPSL
343
Stéphane Braudel
18.1. Introduction343
18.2. Utilisation de la vidéoprotection : approche et constats344
18.3. Cadres d'emploi actuels et nouveaux concepts opérationnels346
18.4. Les besoins en traitements vidéo intelligents347
18.5. Conclusion349
Chapitre 19. Qualification et évaluation de performances
351
Bernard Boulay, Jean-François Goudou et François Brémond
19.1. Introduction351
19.2. Etat de l'art352
19.2.1. Applications352
19.2.2. Processus353
19.3. Un programme d'évaluation : ETISEO357
19.3.1. Méthodologie357
19.3.2. Métriques359
19.3.3. Bilan361
19.4. Vers une évaluation plus générique364
19.4.1. Contraste364
19.4.2. Ombres366
19.5. Le projet Quasper366
19.6. Conclusion367
19.7. Bibliographie368
Index
371