Capítulo 10. Prepararse para los MLOP con la IA de Vértice
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
En el Capítulo 9, desarrollamos un modelo TensorFlow en un cuaderno Jupyter. Pudimos entrenar el modelo, implementarlo en un punto final y obtener predicciones de él desde el entorno del cuaderno. Aunque eso nos funcionó durante el desarrollo, no es un flujo de trabajo escalable.
Tomar un modelo TensorFlow que has entrenado en tu cuaderno Jupyter e implementar el SavedModel en Vertex AI no es escalable a cientos de modelos y grandes equipos. Volver a entrenar va a ser difícil porque el equipo de operaciones tendrá que configurar todas las operaciones, el monitoreo y la programación sobre algo que es realmente tosco y totalmente no mínimo.
Para que un modelo de aprendizaje automático pueda ponerse en producción, debe cumplir los siguientes requisitos:
-
El modelo debe estar bajo control de versiones. Los sistemas de control de código fuente como git funcionan mucho mejor con archivos de texto (como los archivos .py ) que con mezclas de texto y binarios (que es lo que son los archivos .ipynb ).
-
Todo el proceso -desde la creación del conjunto de datos hasta el entrenamiento y la implementación- debe estar controlado por código. Esto es así para que sea fácil volver a activar automáticamente una ejecución de entrenamiento mediante Acciones de GitHub o Integración Continua de GitLab cada vez que se registre ...
Get Ciencia de Datos en la Plataforma en la Nube de Google, 2ª Edición now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.