• Aide
  • Eurêkoi Eurêkoi

Livre

Machine learning avec Scikit-learn : mise en oeuvre et cas concrets

Résumé

Présentation des fondamentaux de l'apprentissage automatique avec la bibliothèque libre Scikit-learn, module du langage de programmation Python. Avec des exercices corrigés et des compléments en ligne. ©Electre 2019


  • Contributeur(s)
  • Éditeur(s)
  • Date
    • DL 2019
  • Notes
    • La 4e de couv. porte en plus : "Tous les exemples de code sont disponibles en ligne sous la forme de notebooks Jupyter à l'adresse suivante : https://github.com/ageron/handson-ml2"
    • La couv. mentionne aussi l'éditeur de la version originale (O'Reilly)
  • Langues
    • Français
    • , traduit de : Anglais
  • Description matérielle
    • 1 vol. (XV-297 p.) : ill. ; 25 cm
  • Sujet(s)
  • ISBN
    • 978-2-10-079065-4
  • Indice
    • 681.7(07) Intelligence artificielle, systèmes experts. Manuels
  • Quatrième de couverture
    • Machine Learning avec Scikit-Learn

      Mise en oeuvre et cas concrets

      L'apprentissage automatique (Machine Learning) est aujourd'hui en pleine explosion. Mais de quoi s'agit-il exactement, et comment pouvez-vous le mettre en oeuvre dans vos propres projets ?

      L'objectif de cet ouvrage est de vous expliquer les concepts fondamentaux du Machine Learning et de vous apprendre à maîtriser les outils qui vous permettront de créer vous-même des systèmes capables d'apprentissage automatique.

      Vous apprendrez ainsi à utiliser Scikit-Learn, un outil open source très simple et néanmoins très puissant que vous pourrez mettre en oeuvre dans vos systèmes en production.

      • Apprendre les bases du Machine Learning en suivant pas à pas toutes les étapes d'un projet utilisant Scikit-Learn et pandas.
      • Ouvrir les boîtes noires pour comprendre comment fonctionnent les algorithmes.
      • Explorer plusieurs modèles d'entraînement, notamment les machines à vecteur de support (SVM).
      • Comprendre le modèle des arbres de décision et celui des forêts aléatoires, et exploiter la puissance des méthodes ensemblistes.
      • Exploiter des techniques d'apprentissage non supervisées telles que la réduction de dimensionnalité, la classification et la détection d'anomalies.

  • Tables des matières
      • Machine Learning avec Scikit-Learn

      • Mise en oeuvre et cas concrets

      • 2e édition

      • Aurélien Géron

      • Anne Bohy

      • Dunod

      • Avant-propos IX
      • Chapitre 1 - Vue d'ensemble du Machine Learning1
      • 1.1 Qu'est-ce que l'apprentissage automatique ?2
      • 1.2 Pourquoi utiliser l'apprentissage automatique ?3
      • 1.3 Exemples d'applications6
      • 1.4 Types de systèmes d'apprentissage automatique7
      • 1.5 Principales difficultés de l'apprentissage automatique23
      • 1.6 Test et validation30
      • 1.7 Exercices33
      • Chapitre 2 - Un projet de Machine Learning de bout en bout35
      • 2.1 Travailler avec des données réelles35
      • 2.2 Prendre du recul pour une vision d'ensemble37
      • 2.3 Récupérer les données42
      • 2.4 Découvrir et visualiser les données pour mieux les comprendre54
      • 2.5 Préparer les données pour les algorithmes d'apprentissage automatique60
      • 2.6 Sélectionner et entraîner un modèle69
      • 2.7 Régler avec précision votre modèle73
      • 2.8 Lancer, surveiller et maintenir votre système78
      • 2.9 Essayez !81
      • 2.10 Exercices82
      • Chapitre 3 - Classification83
      • 3.1 MNIST83
      • 3.2 Entraînement d'un classificateur binaire86
      • 3.3 Mesures de performances86
      • 3.4 Classification multi-classes97
      • 3.5 Analyse des erreurs99
      • 3.6 Classification multi-étiquettes103
      • 3.7 Classification multi-sorties104
      • 3.8 Exercices105
      • Chapitre 4 - Entraînement de modèles107
      • 4.1 Régression linéaire108
      • 4.2 Descente de gradient113
      • 4.3 Régression polynomiale123
      • 4.4 Courbes d'apprentissage125
      • 4.5 Modèles linéaires régularisés128
      • 4.6 Régression logistique136
      • 4.7 Exercices144
      • Chapitre 5 - Machines à vecteurs de support145
      • 5.1 Classification SVM linéaire145
      • 5.2 Classification SVM non linéaire149
      • 5.3 Régression SVM154
      • 5.4 Sous le capot156
      • 5.5 Exercices165
      • Chapitre 6 - Arbres de décision167
      • 6.1 Entraîner et visualiser un arbre de décision167
      • 6.2 Effectuer des prédictions169
      • 6.3 Estimation des probabilités des classes171
      • 6.4 Algorithme d'entraînement CART171
      • 6.5 Complexité algorithmique172
      • 6.6 Impureté Gini ou entropie ?172
      • 6.7 Hyperparamètres de régularisation173
      • 6.8 Régression175
      • 6.9 Instabilité177
      • 6.10 Exercices178
      • Chapitre 7 - Apprentissage d'ensemble et forêts aléatoires181
      • 7.1 Classificateurs par vote182
      • 7.2 Bagging et pasting184
      • 7.3 Parcelles aléatoires et sous-espaces aléatoires188
      • 7.4 Forêts aléatoires188
      • 7.5 Boosting191
      • 7.6 Stacking199
      • 7.7 Exercices202
      • Chapitre 8 - Réduction de dimension203
      • 8.1 Le fléau de la dimension204
      • 8.2 Principales approches de la réduction de dimension205
      • 8.3 PCA209
      • 8.4 PCA à noyau216
      • 8.5 LLE219
      • 8.6 Autres techniques de réduction de dimension221
      • 8.7 Exercices222
      • Chapitre 9 - Techniques d'apprentissage non supervisé225
      • 9.1 Partitionnement226
      • 9.2 Mélanges gaussiens249
      • 9.3 Exercices264
      • Le mot de la fin 267
      • Annexe A - Solutions des exercices 269
      • Annexe B - Liste de contrôle de projet de Machine Learning 283
      • Annexe C - SVM : le problème dual 289
      • Index 293

  • Origine de la notice:
    • Electre
  • Disponible - 681.7(07) GER

    Niveau 3 - Informatique