• Aide
  • Eurêkoi Eurêkoi

Livre

Introduction au machine learning

Résumé

Une introduction aux principes et aux algorithmes du machine learning, ou apprentissage automatique. Cet ouvrage explique comment résoudre et formaliser certains problèmes grâce à ce champ d'étude, à identifier les algorithmes appropriés et à évaluer leurs performances. Avec des exercices corrigés. Edition complétée de nouvelles méthodes telles que le clustering spectral.


  • Éditeur(s)
  • Date
    • DL 2022
  • Langues
    • Français
  • Description matérielle
    • 1 vol. (VIII--263 p.) : ill., graph. ; 24 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 978-2-10-083476-1
  • Indice
  • Quatrième de couverture
    • Introduction au Machine Learning

      2e édition

      Cet ouvrage s'adresse aux étudiantes et étudiants en informatique ou maths appliquées, en L3, master ou école d'ingénieurs.

      Le Machine Learning est une discipline dont les outils puissants permettent aujourd'hui à de nombreux secteurs d'activité de réaliser des progrès spectaculaires grâce à l'exploitation de grands volumes de données.

      Le but de cet ouvrage est de vous fournir des bases solides sur les concepts et les algorithmes de ce domaine en plein essor.

      Il vous aidera à identifier les problèmes qui peuvent être résolus par une approche Machine Learning, à les formaliser, à identifier les algorithmes les mieux adaptés à chaque problème, à les mettre en oeuvre, et enfin à savoir évaluer les résultats obtenus.

      Les notions de cours sont illustrées et complétées par 85 exercices, tous corrigés.


  • Tables des matières
      • Introduction au Machine Learning

      • 2e édition

      • Chloé-Agathe Azencott

      • Dunod

      • Avant-propos VI
      • Chapitre 1 . Présentation du machine learning1
      • 1.1 Qu'est-ce que le machine learning ?1
      • 1.2 Types de problèmes de machine learning5
      • 1.3 Ressources pratiques10
      • 1.4 Notations11
      • Exercices13
      • Solutions14
      • Chapitre 2 . Apprentissage supervisé15
      • 2.1 Formalisation d'un problème d'apprentissage supervisé15
      • 2.2 Espace des hypothèses18
      • 2.3 Minimisation du risque empirique19
      • 2.4 Fonctions de coût21
      • 2.5 Généralisation et sur-apprentissage27
      • Exercices33
      • Solutions33
      • Chapitre 3 . Sélection de modèle et évaluation35
      • 3.1 Estimation empirique de l'erreur de généralisation35
      • 3.2 Optimisation d'hyperparamètres39
      • 3.3 Critères de performance41
      • Exercices52
      • Solutions52
      • Chapitre 4 . Inférence bayésienne54
      • 4.1 Modélisation probabiliste d'un problème d'apprentissage supervisé54
      • 4.2 Règles de décision57
      • 4.3 Classification naïve bayésienne62
      • 4.4 Analyse discriminante quadratique et linéaire66
      • 4.5 Sélection de modèle bayésienne68
      • Exercices69
      • Solutions71
      • Chapitre 5 . Régressions paramétriques74
      • 5.1 Apprentissage supervisé d'un modèle paramétrique74
      • 5.2 Régression linéaire76
      • 5.3 Régression logistique81
      • 5.4 Régression polynomiale84
      • Exercices85
      • Solutions86
      • Chapitre 6 . Régularisation87
      • 6.1 Qu'est-ce que la régularisation ?87
      • 6.2 La régression ridge88
      • 6.3 Le lasso92
      • 6.4 Elastic net96
      • Exercices98
      • Solutions98
      • Chapitre 7 . Réseaux de neurones artificiels100
      • 7.1 Le perceptron100
      • 7.2 Perceptron multi-couche106
      • Exercices114
      • Solutions114
      • Chapitre 8 . Méthode des plus proches voisins117
      • 8.1 Méthode du plus proche voisin117
      • 8.2 Méthode des plus proches voisins119
      • 8.3 Distances et similarités122
      • 8.4 Filtrage collaboratif127
      • Exercices129
      • Solutions130
      • Chapitre 9 . Arbres et forêts132
      • 9.1 Arbres de décision132
      • 9.2 Comment faire pousser un arbre134
      • 9.3 Méthodes ensemblistes : la sagesse des foules138
      • Exercices145
      • Solutions146
      • Chapitre 10 . Machines à vecteurs de support et méthodes à noyaux148
      • 10.1 Le cas linéairement séparable : SVM à marge rigide148
      • 10.2 Le cas linéairement non séparable : SVM à marge souple ..154
      • 10.3 Le cas non linéaire : SVM à noyau158
      • 10.4 Régression ridge à noyau163
      • Exercices166
      • Solutions168
      • Chapitre 11 . Réduction de dimension172
      • 11.1 Motivation172
      • 11.2 Sélection de variables174
      • 11.3 Extraction de variables177
      • Exercices194
      • Solutions195
      • Chapitre 12 . Clustering197
      • 12.1 Pourquoi partitionner ses données197
      • 12.2 Évaluer la qualité d'un algorithme de clustering198
      • 12.3 Clustering hiérarchique202
      • 12.4 Méthode des K-moyennes205
      • 12.5 Clustering par modèle de mélange gaussien208
      • 12.6 Clustering par densité212
      • 12.7 Clustering spectral214
      • Exercices220
      • Solutions221
      • Annexe A . Notions d'optimisation convexe223
      • A.1 Convexité223
      • A.2 Problèmes d'optimisation convexe225
      • A.3 Optimisation convexe sans contrainte227
      • A.4 Optimisation convexe sous contraintes238
      • Annexe B . Notions d'estimation ponctuelle245
      • B.1 Statistique inférentielle245
      • B.2 Estimation ponctuelle247
      • B.3 Propriétés d'un estimateur248
      • B.4 Estimation par maximum de vraisemblance251
      • B.5 Estimation de Bayes256
      • Index 261

  • Origine de la notice:
    • BPI
  • Disponible - 681.21(07) AZE

    Niveau 3 - Informatique