• Aide
  • Eurêkoi Eurêkoi

Livre

Introduction au deep learning

Résumé

Une présentation du deep learning qui fait appel à des réseaux de neurones profonds, notamment avec l'outil open source d'apprentissage automatique TensorFlow. L'ouvrage est complété d'une quarantaine d'exercices, de propositions de projets et de lectures complémentaires. ©Electre 2021


  • Contributeur(s)
  • Éditeur(s)
  • Date
    • DL 2021
  • Notes
    • Traduit de l'américain
    • Public : L3 , Masters, Ecoles d'ingénieurs
  • Langues
    • Français
  • Description matérielle
    • 1 vol. (162 p.) ; 24 x 17 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 978-2-10-081926-3
  • Indice
    • 681.7(07) Intelligence artificielle, systèmes experts. Manuels
  • Quatrième de couverture
    • Introduction au Deep Learning

      Cet ouvrage s'adresse aux étudiants en fin de licence et en master d'informatique ou de maths appliquées, ainsi qu'aux élèves ingénieurs.

      L'apprentissage profond (deep learning) a révolutionné l'intelligence artificielle et s'est très rapidement répandu dans de nombreux domaines d'activité.

      Grâce à une approche « orientée projet », ce livre a pour but d'expliquer les bases du deep learning, depuis les réseaux de neurones à propagation avant jusqu'aux réseaux non supervisés.

      Conçu comme un manuel d'apprentissage synthétique, avec cours et exercices, il s'appuie sur des exemples dans des domaines comme la vision par ordinateur, la compréhension des langages naturels ou l'apprentissage par renforcement.

      Ces exemples sont étudiés avec le logiciel TensorFlow

      Les notions théoriques sont illustrées et complétées par une quarantaine d'exercices, dont la moitié sont corrigés


  • Tables des matières
      • Introduction au Deep Learning

      • Eugene Charniak

      • Anne Bohy

      • Dunod

      • Avant-propos IX
      • Chapitre 1 . Réseaux de neurones à propagation avant1
      • 1.1 Les perceptrons3
      • 1.2 Fonctions de perte d'entropie croisée pour les réseaux de neurones8
      • 1.3 Dérivées et descente de gradient stochastique13
      • 1.4 Écriture de notre programme17
      • 1.5 Représentation matricielle des réseaux de neurones20
      • 1.6 Indépendance des données23
      • 1.7 Références et lectures supplémentaires24
      • Exercices25
      • Chapitre 2 . TensorFlow27
      • 2.1 Introduction à TensorFlow27
      • 2.2 Un programme TF30
      • 2.3 Réseaux de neurones à plusieurs couches36
      • 2.4 Autres particularités39
      • 2.5 Références et lectures supplémentaires45
      • Exercices45
      • Chapitre 3 . Réseaux de neurones convolutifs47
      • 3.1 Filtres, pas et marge47
      • 3.2 Exemple simple de convolution en TF53
      • 3.3 Convolution à plusieurs niveaux56
      • 3.4 Présentation détaillée de la convolution59
      • 3.5 Références et lectures supplémentaires61
      • Exercices63
      • Chapitre 4 . Plongements de mots et réseaux de neurones récurrents65
      • 4.1 Plongement de mots pour modèles linguistiques65
      • 4.2 Construction de modèles linguistiques à propagation avant70
      • 4.3 Amélioration des modèles linguistiques à propagation avant72
      • 4.4 Surajustement73
      • 4.5 Réseaux récurrents76
      • 4.6 Longue mémoire à court terme82
      • 4.7 Références et lectures supplémentaires85
      • Exercices88
      • Chapitre 5 . Apprentissage séquence à séquence89
      • 5.1 Principe du seq2seq90
      • 5.2 Écriture d'un programme de traduction automatique seq2seq92
      • 5.3 L'attention dans seq2seq95
      • 5.4 Seq2Seq multi-longueurs99
      • 5.5 Exemples de programmation100
      • 5.6 Références et lectures supplémentaires103
      • Exercices104
      • Chapitre 6 . Apprentissage par renforcement profond105
      • 6.1 Itération sur les valeurs106
      • 6.2 Apprentissage sans modèle109
      • 6.3 Les bases de l'apprentissage par renforcement profond111
      • 6.4 Méthodes de gradients de politique115
      • 6.5 Méthodes acteur-critique121
      • 6.6 Répétition d'expériences124
      • 6.7 Références et lectures supplémentaires125
      • Exercices126
      • Chapitre 7 Modèles de réseaux de neurones non supervisés127
      • 7.1 Encodage de base127
      • 7.2 Auto-encodage convolutif130
      • 7.3 Auto-encodage variationnel134
      • 7.4 Réseaux antagonistes génératifs142
      • 7.5 Références et lectures supplémentaires146
      • Exercices147
      • Annexe : Corrigé des exercices149
      • A.1 Chapitre 1149
      • A.2 Chapitre 2149
      • A.3 Chapitre 3150
      • A.4 Chapitre 4151
      • A.5 Chapitre 5151
      • A.6 Chapitre 6152
      • A.7 Chapitre 7152
      • Bibliographie153
      • Index157

  • Origine de la notice:
    • Electre
  • Disponible - 681.7(07) CHA

    Niveau 3 - Informatique