Capítulo 19. Formación e Implementación de Modelos TensorFlow a Escala
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Una vez que tienes un hermoso modelo que hace predicciones asombrosas, ¿qué haces con él? Pues ponerlo en producción. Esto podría ser tan sencillo como ejecutar el modelo en un lote de datos, y quizás escribir un script que ejecute este modelo cada noche. Sin embargo, a menudo es mucho más complicado. Puede que varias partes de tu infraestructura necesiten utilizar este modelo con datos en tiempo real, en cuyo caso probablemente querrás envolver tu modelo en un servicio web: de esta forma, cualquier parte de tu infraestructura podrá consultar el modelo en cualquier momento utilizando una sencilla API REST (o algún otro protocolo), como comentamos en el Capítulo 2. Pero a medida que pase el tiempo, tendrás que volver a entrenar regularmente tu modelo con datos nuevos y enviar la versión actualizada a producción. Debes gestionar la versión del modelo, realizar una transición elegante de un modelo al siguiente, posiblemente volver al modelo anterior en caso de problemas, y quizás ejecutar varios modelos diferentes en paralelo para realizar experimentos A/B.1 Si tu producto tiene éxito, tu servicio puede empezar a recibir un gran número de consultas por segundo (QPS), y debe ampliarse para soportar la carga. Una gran solución para escalar tu servicio, como verás en este capítulo, es utilizar TF Serving, ...
Get Aprendizaje automático práctico con Scikit-Learn, Keras y TensorFlow, 3ª edición now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.