• Aide
  • Eurêkoi Eurêkoi

Livre

Les interfaces cerveau-ordinateur. 1 , Fondements et méthodes

Résumé

Présente l'ensemble des informations de base nécessaires en anatomie et en physiologie du cerveau, pour mieux comprendre les BCI (Brain Computer Interface) du point de vue des neurosciences. Explore les aspects des BCI liés au traitement des signaux et à l'apprentissage automatique. Traite de l'apprentissage humain et de l'interaction entre l'homme et la machine. ©Electre 2016


  • Contributeur(s)
  • Éditeur(s)
  • Date
    • cop. 2016
  • Langues
    • Français
  • Description matérielle
    • 1 vol. (309 p.) : ill. en coul., graph. ; 24 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 978-1-78405-147-1
  • Indice
    • 681.71 Intelligence artificielle et machines logiques
  • Quatrième de couverture
    • Les interfaces cerveau-ordinateur (Brain-Computer Interfaces, BCI) sont des dispositifs qui mesurent l'activité cérébrale et la convertissent en messages ou commandes, offrant ainsi de nombreuses possibilités d'investigation et d'application.

      Pluridisciplinaire, cet ouvrage donne les clés pour comprendre et concevoir ces interfaces qui font appel à des connaissances relevant de nombreux domaines tels que les neurosciences, les statistiques, l'informatique et la psychologie.

      Le premier volume, Fondements et méthodes, apporte les bases nécessaires à la compréhension du fonctionnement des BCI. Il présente d'abord les principes anatomiques et physiologiques qui permettent d'appréhender l'activité cérébrale intervenant dans les interfaces cerveau-ordinateur, puis détaille les méthodes de traitement du signal et d'apprentissage automatique. L'utilisation des BCI est ensuite étudiée, notamment au travers des problématiques de l'apprentissage humain et de l'interaction entre l'homme et la machine.


  • Tables des matières
      • Les interfaces cerveau-ordinateur 1

      • Fondements et méthodes

      • Maureen Clerc

      • Laurent Bougrain

      • Fabien Lotte

      • iSTE

      • Préface
        José Del R. Millán17
      • Introduction
        Maureen Clerc, Laurent Bougrain et Fabien Lotte19
      • Première partie. Anatomie et physiologie29
      • Chapitre 1. Anatomie du système nerveux
        Matthieu Kandel et Maude Tollet
      • 1.1. Description générale du système nerveux31
      • 1.2. Le système nerveux central33
      • 1.2.1. Le télencéphale33
      • 1.2.1.1. Le lobe frontal35
      • 1.2.1.2. Le lobe pariétal36
      • 1.2.1.3. Le lobe temporal36
      • 1.2.1.4. Le lobe occipital37
      • 1.2.1.5. L'insula ou lobe de l'insula37
      • 1.2.2. Le diencéphale37
      • 1.2.3. Le tronc cérébral39
      • 1.3. Le cervelet40
      • 1.4. La moelle épinière et les racines42
      • 1.5. Le système nerveux périphérique44
      • 1.5.1. Le nerf44
      • 1.5.2. Organisation générale du SNP45
      • 1.5.3. Le système nerveux autonome46
      • 1.6. Quelques syndromes et pathologies visées par les interfaces cerveau-ordinateur46
      • 1.6.1. Syndromes moteurs46
      • 1.6.2. Quelques pathologies accessibles aux BCI47
      • 1.7. Conclusion49
      • 1.8. Bibliographie49
      • Chapitre 2. Imagerie fonctionnelle cérébrale51
      • Christian-George Bénar
      • 2.1. L'IRM fonctionnelle52
      • 2.1.1. Principes de base de l'IRM52
      • 2.1.2. Principes de l'IRMf52
      • 2.1.3. Analyse statistique des données : le modèle linéaire53
      • 2.1.4. Analyse en composantes indépendantes54
      • 2.1.5. Mesures de connectivité55
      • 2.2. Electrophysiologie : EEG et MEG56
      • 2.2.1. Principes de base de la génération des signaux56
      • 2.2.2. Potentiels et champs évoqués56
      • 2.2.3. Localisation de sources57
      • 2.2.4. Analyse en composantes indépendantes58
      • 2.2.5. Analyse temps-fréquence59
      • 2.2.6. Connectivité60
      • 2.2.7. Analyse statistique61
      • 2.3. EEG-IRMf simultanés61
      • 2.3.1. Principes de la méthode61
      • 2.3.2. Applications et analyse des données61
      • 2.3.3. Liens entre électrophysiologie et IRMf62
      • 2.4. Discussion et pistes futures62
      • 2.5. Bibliographie64
      • Chapitre 3. Electrogenèse cérébrale69
      • Franck Vidal
      • 3.1. Les activités électriques neuronales à l'origine de l'EEG69
      • 3.1.1. Potentiels d'actions et potentiels postsynaptiques69
      • 3.1.2. Potentiel de repos, gradient électrochimique et potentiels postsynaptiques71
      • 3.1.3. Des potentiels postsynaptiques à l'EEG72
      • 3.2. Champs dipolaire et quadripolaire74
      • 3.2.1. Champ créé par un courant d'ions dû à l'ouverture de canaux ioniques74
      • 3.2.1.1. Champ créé par une entrée d'ions au niveau d'une synapse (PPS)75
      • 3.2.1.2. Champ créé par une entrée d'ions au niveau de l'axone (PA)75
      • 3.2.1.3. Champ créé par d'autres activités neuronales77
      • 3.2.2. Déterminants de la valeur du potentiel créé par un courant d'ions78
      • 3.3. Importance de la géométrie des ensembles générateurs79
      • 3.3.1. Sommation spatiale, champs fermés et champs ouverts79
      • 3.3.2. Effet de la position des synapses sur la polarité des activités mesurées81
      • 3.3.3. Effet de la position des zones activées82
      • 3.4. Influence des milieux conducteurs83
      • 3.4.1. Influence des cellules gliales83
      • 3.4.2. Influence des os du crâne84
      • 3.5. Conclusion84
      • 3.6. Bibliographie85
      • Chapitre 4 Marqueurs physiologiques pour le contrôle de BCI actives/réactives
        François Cabestaing et Philippe Derambure87
      • 4.1. Introduction87
      • 4.2. Marqueurs permettant le contrôle d'interfaces actives91
      • 4.2.1. Variations spatio-temporelles de potentiels92
      • 4.2.1.1. Variations lentes du potentiel cortical moyen92
      • 4.2.1.2. Bereitschaftspotential ou Readiness Potential92
      • 4.2.2. Variations spatio-temporelles de rythmes93
      • 4.3. Marqueurs permettant le contrôle d'interfaces réactives96
      • 4.3.1. Potentiels évoqués sensoriels96
      • 4.3.1.1. Potentiels évoqués visuels stationnaires96
      • 4.3.1.2. Autres potentiels steady-state : SSAEP, ASSR et SSSEP98
      • 4.3.2. Potentiel endogène P30098
      • 4.4. Conclusion100
      • 4.5. Bibliographie100
      • Chapitre 5 Marqueurs neurophysiologiques pour les interfaces cerveau-ordinateur passives
        Raphaëlle N. Roy et Jérémy Frey105
      • 5.1. BCI passives et états mentaux105
      • 5.1.1. BCI passives : définition105
      • 5.1.2. Notion d'états mentaux106
      • 5.1.3. Grandes catégories de marqueurs neurophysiologiques106
      • 5.2. Charge mentale107
      • 5.2.1. Définition107
      • 5.2.2. Marqueurs comportementaux107
      • 5.2.3. Marqueurs EEG107
      • 5.2.4. Exemple d'application : contrôle aérien108
      • 5.3. Fatigue mentale et vigilance108
      • 5.3.1. Définition108
      • 5.3.2. Marqueurs comportementaux109
      • 5.3.3. Marqueurs EEG109
      • 5.3.4. Exemple d'application : conduite automobile109
      • 5.4. Attention110
      • 5.4.1. Définition110
      • 5.4.2. Marqueurs comportementaux110
      • 5.4.3. Marqueurs EEG110
      • 5.4.4. Exemple d'application : enseignement111
      • 5.5. Détection des erreurs111
      • 5.5.1. Définition111
      • 5.5.2. Marqueurs comportementaux112
      • 5.5.3. Marqueurs EEG112
      • 5.5.4. Exemple d'application : interfaces tactiles et robotique112
      • 5.6. Emotions113
      • 5.6.1. Définition113
      • 5.6.2. Marqueurs comportementaux113
      • 5.6.3. Marqueurs EEG113
      • 5.6.4. Exemples d'application : communication et développement personnel114
      • 5.7. Conclusion114
      • 5.8. Bibliographie115
      • Deuxième partie. Traitement du signal et apprentissage121
      • Chapitre 6. Prétraitements de données d'électro-encéphalographie123
      • Maureen Clerc
      • 6.1. Introduction123
      • 6.2. Principes d'acquisition de l'EEG124
      • 6.2.1. Montage124
      • 6.2.2. Echantillonnage125
      • 6.2.3. Quantification125
      • 6.3. Représentation temporelle et segmentation125
      • 6.3.1. Débruitage126
      • 6.3.2. Séparation de composantes126
      • 6.4. Représentation fréquentielle et filtrage126
      • 6.4.1. Débruitage128
      • 6.4.2. Séparation de composantes128
      • 6.5. Représentations temps-fréquence128
      • 6.5.1. Atome temps-fréquence129
      • 6.5.2. Transformée de Fourier à fenêtre130
      • 6.5.3. Transformée en ondelettes131
      • 6.5.3.1. Transformée en ondelettes ou filtrage multi-échelles132
      • 6.5.4. Transformées temps-fréquence de signaux discrets132
      • 6.5.5. Vers d'autres représentations redondantes133
      • 6.6. Représentations spatiales134
      • 6.6.1. Représentation topographique134
      • 6.6.2. Filtrage spatial135
      • 6.6.2.1. Laplacien de surface135
      • 6.6.2.2. Densité surfacique de courant136
      • 6.6.3. Reconstruction de sources136
      • 6.6.4. Utilisation de représentations spatiales en BCI138
      • 6.7. Représentation statistique des données139
      • 6.7.1. Analyse en composantes principales (ACP)139
      • 6.7.2. Analyse en composantes indépendantes (ACI)139
      • 6.7.3. Représentations statistiques pour le BCI140
      • 6.8. Contexte d'utilisation en BCI et conclusion140
      • 6.9. Bibliographie141
      • Chapitre 7. Extraction de caractéristiques du signal EEG
        Fabien Lotte et Marco Congedo145
      • 7.1. Introduction145
      • 7.2. Extraction de caractéristiques145
      • 7.3. Extraction de caractéristiques pour les BCI exploitant l'activité oscillatoire147
      • 7.3.1. Conception basique d'une BCI exploitant l'activité oscillatoire148
      • 7.3.2. Vers des BCI plus avancées utilisant de multiples électrodes148
      • 7.3.2.1. Filtrage spatial150
      • 7.3.3. L'algorithme Common Spatial Patterns151
      • 7.3.4. Illustration sur des vraies données153
      • 7.4. Extraction de caractéristiques pour les BCI exploitant les potentiels évoqués154
      • 7.4.1. Filtrage spatial pour les BCI exploitant les potentiels évoqués155
      • 7.5. Méthodes alternatives et approche par géométrie riemannienne156
      • 7.6. Conclusion158
      • 7.7. Bibliographie159
      • Chapitre 8. Analyse des enregistrements extracellulaires
        Christophe Pouzat161
      • 8.1. Introduction161
      • 8.1.1. Pourquoi enregistrer des populations de neurones ?161
      • 8.1.2. Comment enregistre-t-on des populations de neurones ?162
      • 8.1.3. Les propriétés des données extracellulaires et la nécessité du tri des potentiels d'action162
      • 8.2. L'origine du signal et ses conséquences164
      • 8.2.1. Relation entre courant et potentiel pour un milieu homogène164
      • 8.2.2. Relation entre dérivées du potentiel membranaire et courant transmembranaire165
      • 8.2.3. « Des électrodes aux tétrodes »168
      • 8.3. Tri des potentiels d'action : présentation chronologique169
      • 8.3.1. Tri à l'oeil170
      • 8.3.2. Discriminateur d'amptitudes (window discriminator (1963)170
      • 8.3.3. Comparaison à des motifs standards (template matching) (1964)171
      • 8.3.4. Réduction de dimension (dimension reduction) et classification non supervisée (clustering) (1965)172
      • 8.3.5. Analyse en composantes principales (principal components analysis) (1968)172
      • 8.3.6. Résolution des superpositions (1972)174
      • 8.3.7. Dynamique d'amplitude des potentiels d'action (1973)175
      • 8.3.8. Filtres optimaux (1975)176
      • 8.3.9. Stéréodes et rapport d'amplitudes (1983)178
      • 8.3.10. La gigue électronique (sampling jitter) (1984)182
      • 8.3.11. Outils graphiques183
      • 8.3.12. Classification non-supervisée automatique185
      • 8.4. Quelques recommandations191
      • 8.5. Bibliographie193
      • Chapitre 9. Apprentissage statistique pour les BCI
        Rémi Flamary, Alain Rakotomamonjy et Michèle Sebag197
      • 9.1. Apprentissage statistique supervisé197
      • 9.1.1. Données d'apprentissage et fonction de prédiction198
      • 9.1.2. Risque empirique et régularisation199
      • 9.1.3. Méthodes de classification classiques201
      • 9.1.3.1. Analyse discriminante linéaire (LDA)201
      • 9.1.3.2. Séparateurs à vaste marge (SVM)202
      • 9.2. Méthodes d'apprentissage spécifiques203
      • 9.2.1. Sélection de variables et de capteurs203
      • 9.2.2. Apprentissage multisujet, transert d'information204
      • 9.3. Mesures de performance205
      • 9.3.1. Mesure de performance pour la classification205
      • 9.3.2. Performance pour la régression207
      • 9.4. Validation et sélection de modèles207
      • 9.4.1. Estimation de la mesure de performance208
      • 9.4.1.1. Echantillonnage aléatoire208
      • 9.4.1.2. K-validation croisée et leave-one-out (LOO)209
      • 9.4.1.3. Bootstrap209
      • 9.4.2. Optimisation des hyper-paramètres210
      • 9.5. Conclusion212
      • 9.6. Bibliographie212
      • Troisième partie. Apprentissage humain et interaction homme-machine217
      • Chapitre 10. Méthodes adaptatives en apprentissage machine219
      • Maureen Clerc, Emmanuel Daucé et Jérémie Mattout
      • 10.1. Les principales sources de variabilité219
      • 10.1.1. La variabilité intra-individuelle220
      • 10.1.2. La variabilité inter-individuelle221
      • 10.2. Cadre de l'adaptation pour les interfaces cerveau-ordinateur222
      • 10.3. Décodage statistique adaptatif223
      • 10.3.1. Dérive de convariables224
      • 10.3.2. Adaptation du classifieur225
      • 10.3.2.1. Réaprentissage par fenêtre glissante225
      • 10.2.2.2. Descentes de gradient226
      • 10.3.3. Calibration adaptée au sujet227
      • 10.2.2.1. Apprentissage par renforcement227
      • 10.3.4. Tâche optimale228
      • 10.3.5. Correspondance entre tâche et commande228
      • 10.4. Modèle génératif et adaptation229
      • 10.4.1. Approche bayésienne229
      • 10.4.2. Décision séquentielle232
      • 10.4.3. Optimisation en ligne des stimulations233
      • 10.4.3.1. Expériences adaptatives en neuroconsciences cognitives235
      • 10.5. Conclusion236
      • 10.6. Bibliographie236
      • Chapitre 11. Apprentissage humain pour les interfaces cerveau-ordinateur241
      • Camille Jeunet, Fabien Lotte et Bernard N'Kaoua
      • 11.1. Introduction241
      • 11.2. Illustration : deux protocoles historiques en BCI243
      • 11.2.1. Principe du protocole de Graz243
      • 11.2.2. Principe du protocole du Wadworth Center pour le contrôle 1D de curseur244
      • 11.3. Limites des protocoles standards utilisés en BCI245
      • 11.4. Etat de l'art des protocoles d'apprentissage en BCI246
      • 11.4.1. Instructions246
      • 11.4.2. Tâches d'entraînement246
      • 11.4.3. Feedback247
      • 11.4.4. Environnement d'apprentissage250
      • 11.4.5. Pour résumer : quelques lignes directrices pour la création de protocoles d'apprentissage plus efficaces250
      • 11.5. Perspectives : vers des protocoles d'apprentissage adaptés et adaptables à l'utilisateur251
      • 11.6. Conclusion254
      • 11.7. Bibliographie254
      • Chapitre 12. Interfaces cerveau-ordinateur pour l'interaction homme-machine259
      • Andéol Evain, Nicolas Roussel, Géry Casiez, Ferran Argelaguet et Anatole Lécuyer
      • 12.1. Une brève introduction à l'interaction homme-machine259
      • 12.1.1. Système interactif, interface et interaction260
      • 12.1.2. Tâches élémentaires et techniques d'interaction260
      • 12.1.3. Théorie de l'action, retours d'information260
      • 12.1.4. Utilisabilité261
      • 12.2. Caractéristiques des BCI, du point de vue de l'IHM262
      • 12.3. Quel motif pour quelle tâche ?264
      • 12.4. Paradigmes d'interaction pour les BCI265
      • 12.4.1. Boucle d'interaction BCI265
      • 12.4.2. Principaux paradigmes d'interaction pour les BCI267
      • 12.5. Conclusion271
      • 12.6. Bibliographie272
      • Chapitre 13. Entraîner son cerveau avec le neurofeedback
        Lorraine Perronnet, Anatole Lécuyer, Fabien Lotte, Maureen Clerc et Christian Barillot277
      • 13.1. Introduction277
      • 13.2. Comment ça marche ?280
      • 13.2.1. Mise en place d'un programme d'entraînement par NF280
      • 13.2.2. Déroulement d'une séance de NF : les « yeux rivés » sur son cerveau281
      • 13.2.3. Un procédé d'apprentissage sur lequel il reste beaucoup à apprendre282
      • 13.3. Cinquante ans d'histoire283
      • 13.3.1. Un engouement trop précoce283
      • 13.3.2. Une diversification des approches284
      • 13.4. Vers un rapprochement entre NF et BCI286
      • 13.5. Applications288
      • 13.5.1. TDAH289
      • 13.5.2. Epilepsie289
      • 13.5.3. Dépression290
      • 13.5.4. Réhabilitation motrice suite à un accident vasculaire cérébral (AVC)290
      • 13.5.5. NF pour le contrôle d'une BCI291
      • 13.6. Conclusion291
      • 13.7. Bibliographie292
      • Index299
      • Sommaire du volume 2305

  • Origine de la notice:
    • Electre
  • Disponible - 681.71 INT

    Niveau 3 - Informatique