Capítulo 8. Inferencia de modelos

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

Nota

Queremos agradecer a Clive Cox y Alejandro Saucedo, de Seldon, su gran contribución a este capítulo.

La mayor parte de la atención prestada al aprendizaje automático se ha dedicado al desarrollo de algoritmos. Sin embargo, los modelos no se crean porque sí, se crean para ponerlos en producción. Normalmente, cuando la gente habla de llevar un modelo "a producción", se refiere a realizar una inferencia.Como se introdujo en el Capítulo 1 y se ilustra en la Figura 1-1, una solución de inferencia completa pretende proporcionar funciones de servicio, monitoreo y actualización.

Modelo que sirve

Pone un modelo entrenado detrás de un servicio que puede gestionar solicitudes de predicción

Monitoreo de modelos

Monitorea el servidor del modelo para detectar cualquier irregularidad en el rendimiento, así como la precisión del modelo subyacente.

Actualización del modelo

Gestiona completamente el versionado de tus modelos y simplifica la promoción y retroceso entre versiones

Este capítulo explorará cada uno de estos componentes básicos y definirá las expectativas de su funcionalidad. Dadas las expectativas concretas, estableceremos una lista de requisitos que deberá satisfacer tu solución de inferencia ideal. Por último, hablaremos de las ofertas de inferencia soportadas por Kubeflow y de cómo puedes utilizarlas para satisfacer tus ...

Get Kubeflow para el aprendizaje automático now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.