Chapitre 3. Réseaux neuronaux convolutionnels
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Après avoir expérimenté les réseaux neuronaux entièrement connectés du chapitre 2, tu as probablement remarqué certaines choses. Si tu as essayé d'ajouter des couches ou d'augmenter considérablement le nombre de paramètres, tu as presque certainement manqué de mémoire sur ton GPU. En outre, il a fallu un certain temps pour s'entraîner jusqu'à ce que l'on obtienne une précision un tant soit peu décente, et même cela n'était pas très reluisant, surtout si l'on considère le battage médiatique autour de l'apprentissage en profondeur. Qu'est-ce qui se passe ?
Il est vrai qu'un réseau entièrement connecté ou(feed-forward) peut fonctionner comme un approximateur universel, mais la théorie ne dit pas combien de temps il te faudra pour l'entraîner à devenir cette approximation de la fonction que tu recherches vraiment. Mais nous pouvons faire mieux, surtout avec les images. Dans ce chapitre, tu découvriras les réseaux neuronaux convolutifs (CNN) et comment ils forment l'épine dorsale des classificateurs d'images les plus précis à l'heure actuelle (nous en examinerons quelques-uns en détail en cours de route). Nous construisons une nouvelle architecture à base de réseaux convolutifs pour notre application poisson contre chat et nous montrons qu'elle est plus rapide à former et plus précise que ce que nous faisions ...