• Aide
  • Eurêkoi Eurêkoi

Livre

Big data, machine learning et apprentissage profond

Résumé

Une présentation des big data du point de vue des applications, des méthodes d'analyses et de modélisation, des outils informatiques et de l'optimisation de la programmation dans R et d'autres logiciels tels que Spark et H2O. Les principes de l'apprentissage profond sont détaillés, ainsi que ses trois principales bibliothèques : MXNet, PyTorch et Keras-TensorFlow. ©Electre 2019


  • Éditeur(s)
  • Date
    • 2019
  • Notes
    • Bibliogr. p. [569]-575. Index
  • Langues
    • Français
  • Description matérielle
    • 1 vol. (XVI-580 p.) : ill. en coul. ; 24 cm
  • Sujet(s)
  • ISBN
    • 978-2-7108-1188-6
  • Indice
  • Quatrième de couverture
    • Big Data, Machine Learning et Apprentissage Profond

      Dans cet ouvrage, les Big Data sont abordées du point de vue des applications, des méthodes d'analyse et de modélisation, des outils informatiques, et de l'optimisation de la programmation dans R et dans d'autres logiciels, dont Spark et H20.

      Les principes de l'apprentissage profond sont détaillés, et tout particulièrement les réseaux de neurones convolutifs et récurrents. On rappelle ce que sont la descente du gradient et le mécanisme de rétropropagation, leurs difficultés (sur-apprentissage, évanouissement du gradient) et les solutions apportées (dropout, normalisation par lot, activation ReLU..). Les applications à la reconnaissance d'image et les architectures élaborées ces dernières années sont ensuite décrites, de même que des applications aux jeux de stratégie et dans le domaine artistique avec les modèles génératifs.

      Ces méthodes sont ensuite mises en oeuvre avec trois des principales bibliothèques d'apprentissage profond : MXNet, PyTorch et Keras-TensorFlow. On montre comment créer et entraîner un réseau convolutif, et comment l'appliquer à des problèmes de classement d'images. On montre comment améliorer leur reconnaissance en recourant à l'augmentation de données et à l'apprentissage par transfert. On compare les résultats des méthodes profondes à ceux des méthodes « classiques » de machine learning : régression pénalisée, forêts aléatoires, extra-trees, gradient boosting, SVM et perception. On montre aussi la puissance de calcul des processeurs graphiques (GPU).

      Le traitement du langage naturel commence ensuite par les questions linguistiques classiques : étiquetage grammatical, reconnaissance des entités nommées, résolution des coréférences et lemmatisation. Puis viennent les représentations vectorielles et les méthodes de plongements de mots. On parle aussi de la modélisation de thématiques, que l'on applique à À la recherche du temps perdu de Proust. Les réseaux de neurones récurrents LSTM et GRU sont ensuite mis en oeuvre dans deux tâches bien différentes : la génération de texte et le classement de documents. Un aperçu est donné de l'analyse de sentiments.

      L'analyse des réseaux sociaux et plus particulièrement d'un corpus de tweets est vue comme convergence des méthodes de Big Data, de théorie des graphes et de traitement du langage naturel.

      L'ouvrage se conclut par une perspective sur l'intelligence artificielle, à la fois comme application des méthodes vues précédemment et comme source de réflexions sur l'évolution et les défis de l'intelligence artificielle, et ce qui la sépare de l'intelligence humaine.


  • Origine de la notice:
    • FR-751131015 ;
    • Electre
  • Disponible - 681.1 TUF

    Niveau 3 - Informatique