Capítulo 23. Guardar, cargar y servirmodelos entrenados

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

23.0 Introducción

En los últimos 22 capítulos y alrededor de 200 recetas, hemos visto cómo tomar datos sin procesar y utilizar el aprendizaje automático para crear modelos predictivos de buen rendimiento. Sin embargo, para que todo nuestro trabajo merezca la pena, al final necesitamos hacer algo con nuestro modelo, como integrarlo en una aplicación de software existente. Para lograr este objetivo, necesitamos poder guardar nuestros modelos después del entrenamiento, cargarlos cuando los necesite una aplicación y, a continuación, hacer peticiones a esa aplicación para obtener predicciones.

Los modelos de ML se suelen implementar en servidores web sencillos y se diseñan para tomar datos de entrada y devolver predicciones. Esto hace que el modelo esté disponible para cualquier cliente en la misma red, de modo que otros servicios (como UIs, usuarios, etc.) puedan utilizar el modelo ML para hacer predicciones dondequiera que estén en tiempo real. Un ejemplo de caso de uso sería utilizar ML para la búsqueda de artículos en un sitio web de comercio electrónico, donde se serviría un modelo ML que toma datos sobre usuarios y listados, y devuelve una probabilidad de que el usuario compre ese listado. Los resultados de la búsqueda tienen que estar disponibles en tiempo real y a disposición de la aplicación de comercio ...

Get Recetario de Aprendizaje Automático con Python, 2ª Edición now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.