Systèmes de production à apprentissage automatique
by Robert Crowe, Hannes Hapke, Emily Caveness, Di Zhu
Chapitre 10. Recherche d'architecture neuronale
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
La recherche d'architecture neuronale (NAS) est une technique d'automatisation de la conception des réseaux neuronaux. En effectuant un certain nombre de permutations d'architecture, NAS nous permet de déterminer l'architecture la plus optimale pour un problème donné. Les modèles trouvés par NAS sont souvent équivalents, voire supérieurs, aux architectures conçues à la main pour de nombreux types de problèmes. Il s'agit d'un domaine de recherche et d'application pratique très actif ces derniers temps.
L'objectif des RNA est de trouver une architecture de modèle optimale. Garde à l'esprit que les réseaux neuronaux modernes couvrent un espace de paramètres énorme, c'est pourquoi l'automatisation de la recherche avec des outils comme l'apprentissage automatique (AutoML) est très judicieuse, mais elle peut être très gourmande en ressources de calcul.
Dans ce chapitre, nous présenterons des techniques pour optimiser tes modèles ML, en commençant par le réglage des hyperparamètres, les NAS et AutoML. À la fin de ce chapitre, nous présenterons les services cloud pour AutoML.
Réglage des hyperparamètres
Avant de plonger en profondeur dans les NAS, comprenons le problème qu'elles résolvent en analysant l'un des processus les plus fastidieux de la modélisation ML (s'il est effectué naïvement) : l'accord des hyperparamètres. ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access