Chapitre 4. Modèles de formation
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Jusqu'à présent, nous avons traité les modèles d'apprentissage automatique et leurs algorithmes de formation comme des boîtes noires. Si tu as fait certains des exercices des chapitres précédents, tu as peut-être été surpris par tout ce que tu peux faire sans rien savoir de ce qui se trouve sous le capot : tu as optimisé un système de régression, tu as amélioré un classificateur d'images de chiffres, et tu as même construit un classificateur de spam à partir de zéro, tout cela sans savoir comment ils fonctionnent réellement. En effet, dans de nombreuses situations, tu n'as pas vraiment besoin de connaître les détails de l'implémentation.
Cependant, une bonne compréhension du fonctionnement des choses peut t'aider à trouver rapidement le modèle approprié, le bon algorithme d'apprentissage à utiliser et un bon ensemble d'hyperparamètres pour ta tâche. Comprendre ce qui se cache sous le capot t'aidera également à déboguer les problèmes et à effectuer des analyses d'erreurs plus efficacement. Enfin, la plupart des sujets abordés dans ce chapitre seront essentiels pour comprendre, construire et entraîner les réseaux neuronaux (abordés dans la deuxième partie de ce livre).
Dans ce chapitre, nous commencerons par étudier le modèle de régression linéaire, l'un des modèles les plus simples qui soient. Nous discuterons de deux ...