Chapitre 4. Apprentissage par transfert et autres astuces
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Après avoir examiné les architectures dans le chapitre précédent, tu peux te demander si tu peux télécharger un modèle déjà entraîné et l'entraîner encore plus. Et la réponse est oui ! Il s'agit d'une technique incroyablement puissante dans les cercles du Deep Learning appelée apprentissage par transfert, qui consiste à adapter un réseau formé pour une tâche (par exemple, ImageNet) à une autre (poissons contre chats).
Pourquoi ferais-tu cela ? Il s'avère qu'une architecture formée sur ImageNet en sait déjà beaucoup sur les images, et en particulier sur la question de savoir si un objet est un chat ou un poisson (ou un chien ou une baleine). Comme tu ne pars plus d'un réseau neuronal essentiellement vierge, avec l'apprentissage par transfert, tu passeras probablement beaucoup moins de temps en formation, et tu pourras t'en sortir avec un ensemble de données de formation beaucoup plus petit. Les approches traditionnelles de Deep Learning nécessitent d'énormes quantités de données pour générer de bons résultats. Avec l'apprentissage par transfert, tu peux construire des classificateurs de niveau humain avec quelques centaines d'images.
Apprentissage par transfert avec ResNet
La chose la plus évidente à faire est de créer un modèle ResNet comme nous l'avons fait au chapitre 3 et de l'insérer dans ...