Classification et régressionGénéralisation, surapprentissage et sous-apprentissageRelation entre complexité du modèle et taille du jeu de donnéesAlgorithmes pour l’apprentissage automatique superviséExemples de jeux de donnéesLes k plus proches voisinsClassification k-NNAnalyser KNeighborsClassifierRégression avec les k plus proches voisinsAnalyser KNeighborsRegressorForces, faiblesses et paramètresModèles linéairesModèles linéaires pour la régressionRégression linéaire (ou méthode des moindres carrés ordinaires)Régression ridgeLassoModèles linéaires pour la classificationModèles linéaires pour la classification multiclasseForces, faiblesses et paramètresClassifieurs bayésiens naïfsForces, faiblesses et paramètresArbres de décisionConstruire des arbres de décisionContrôler la complexité des arbres de décisionAnalyser les arbres de décisionImportance des caractéristiques dans les arbresForces, faiblesses et paramètresEnsembles d’arbres de décisionForêts aléatoiresBoosting d’arbres de régressionSVM à noyauModèles linéaires et caractéristiques non linéairesL’astuce du noyauComprendre les SVMAjuster les paramètres du SVMPrétraitement des données pour les SVMRéseaux de neurones (deep learning)Le modèle de réseau de neuronesAjuster les réseaux de neuronesForces, faiblesses et paramètresEstimer la complexité des réseaux de neuronesEstimer l’incertitude pour les classifieursLa fonction de décisionPrédire les probabilitésClassification multiclasse et incertitudeRésumé et perspectives