Aprendizaje automático fiable
by Cathy Chen, Niall Richard Murphy, Kranti Parisa, D. Sculley, Todd Underwood
Capítulo 5. Evaluación de la validez y calidad del modelo
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Vale, nuestros desarrolladores de modelos han creado un modelo que dicen que está listo para pasar a producción. O tenemos una versión actualizada de un modelo que hay que cambiar para sustituir a una versión de ese modelo que se está ejecutando actualmente en producción. Antes de darle al interruptor y empezar a utilizar este nuevo modelo en un entorno crítico, tenemos que responder a dos preguntas generales. La primera establece la validez del modelo: ¿romperá el nuevo modelo nuestro sistema? La segunda aborda la calidad del modelo: ¿es bueno el nuevo modelo?
Se trata de preguntas sencillas de formular, pero cuya respuesta puede requerir una investigación profunda, que a menudo exige la colaboración entre personas con distintos ámbitos de experiencia. Desde una perspectiva organizativa, es importante que desarrollemos y sigamos procesos sólidos para garantizar que estas investigaciones se llevan a cabo de forma cuidadosa y exhaustiva. Canalizando a nuestro Thomas Edison interior, es razonable decir que el desarrollo de modelos es un 1% de inspiración y un 99% de verificación.
Este capítulo se sumerge en cuestiones tanto de validez como de calidad, y proporciona suficientes antecedentes para que la gente de MLOps pueda ocuparse de ambas cuestiones. También dedicaremos tiempo a hablar de cómo crear procesos, ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access