Capítulo 8. Entrenar y optimizar modelos a escala
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Peter Drucker, uno de los estrategas empresariales favoritos de Jeff Bezos, dijo una vez: "Si no puedes medirlo, no puedes mejorarlo". Esta cita capta la esencia de este capítulo, que se centra en medir, optimizar y mejorar nuestros modelos predictivos.
En el capítulo anterior, entrenamos un único modelo con un único conjunto de hiperparámetros utilizando Amazon SageMaker. También demostramos cómo afinar un modelo BERT preentrenado para construir un modelo clasificador de reseñas de texto para predecir el sentimiento de las reseñas de productos en la naturaleza a partir de canales sociales, sitios web asociados, etc.
En este capítulo, utilizaremos Experimentos SageMaker para medir, seguir, comparar y mejorar nuestros modelos a escala. También utilizaremos SageMaker Hyper-Parameter Tuning para elegir los mejores hiperparámetros para nuestro algoritmo y conjunto de datos específicos. También mostramos cómo realizar un entrenamiento distribuido utilizando diversas estrategias de comunicación y sistemas de archivos distribuidos. Terminamos con consejos sobre cómo reducir costes y aumentar el rendimiento utilizando el algoritmo de selección de hiperparámetros de SageMaker Autopilot, la tubería optimizada de SageMaker a S3 y el hardware de red mejorado de AWS.
Encuentra automáticamente los mejores hiperparámetros del ...
Get Ciencia de datos en AWS now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.