Capítulo 7. Entrenar un modelo de vanguardia
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Este capítulo presenta técnicas más avanzadas para entrenar un modelo de clasificación de imágenes y obtener resultados de vanguardia. Puedes saltártelo si quieres aprender más sobre otras aplicaciones del aprendizaje profundo y volver a él más adelante; no se presupondrá el conocimiento de este material en capítulos posteriores.
Veremos qué es la normalización, una potente técnica de aumento de datos llamada Mixup, el enfoque de redimensionamiento progresivo y el aumento del tiempo de prueba. Para mostrar todo esto, vamos a entrenar un modelo desde cero (sin utilizar el aprendizaje por transferencia) utilizando un subconjunto de de ImageNet llamadoImagenette. Contiene un subconjunto de 10 categorías muy diferentes del conjunto de datos ImageNet original, lo que permite un entrenamiento más rápido cuando queramos experimentar.
Esto va a ser mucho más difícil de hacer bien que con nuestros conjuntos de datos anteriores, porque estamos utilizando imágenes a todo color y tamaño, que son fotos de objetos de diferentes tamaños, en diferentes orientaciones, con diferente iluminación, etc. Así pues, en este capítulo vamos a introducir técnicas importantes para sacar el máximo partido a tu conjunto de datos, especialmente cuando estás entrenando desde cero, o cuando utilizas el aprendizaje por transferencia para entrenar un ...
Get Aprendizaje profundo para programadores con fastai y PyTorch now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.