Aprendizaje automático fiable
by Cathy Chen, Niall Richard Murphy, Kranti Parisa, D. Sculley, Todd Underwood
Capítulo 10. ML continuo
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Hasta ahora, nuestros debates sobre los sistemas de ML se han centrado a veces en la idea de que un modelo es algo que entrenamos y luego desplegamos, casi como si esto fuera algo que ocurre una vez y sólo una vez. Una visión algo más profunda consiste en distinguir entre los modelos que se entrenan una vez y se implementan y los que se entrenan de forma más continua, a los que nos referiremos como sistemas de ML continuo. Los sistemas típicos de ML continuo reciben nuevos datos de forma continua o por lotes periódicos y los utilizan para activar el entrenamiento de una versión actualizada del modelo que se envía al servidor.
Está claro que, desde la perspectiva del MLOps, hay grandes diferencias entre un modelo que se entrena una vez y un modelo que se actualiza de forma continua. Pasar al ML continuo eleva las apuestas para la verificación automatizada. Introduce la posibilidad de quebraderos de cabeza en torno a los bucles de retroalimentación y las reacciones del modelo a los cambios en el mundo externo. Gestionar flujos de datos continuos, responder a fallos y corrupciones del modelo, e incluso tareas aparentemente triviales como introducir nuevas características para que el modelo se entrene, todo ello aumenta la complejidad del sistema.
De hecho, a primera vista, puede parecer que crear un sistema de ML continuo puede ser una idea ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access