Capítulo 11. Evaluación de modelos
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
11.0 Introducción
En este capítulo de examinaremos las estrategias para evaluar la calidad de los modelos creados mediante nuestros algoritmos de aprendizaje. Puede parecer extraño hablar de la evaluación de modelos antes de hablar de cómo crearlos, pero hay un método en nuestra locura. Los modelos son tan útiles como la calidad de sus predicciones y, por tanto, fundamentalmente, nuestro objetivo no es crear modelos (que es fácil), sino crear modelos de alta calidad (que es difícil). Por tanto, antes de explorar la miríada de algoritmos de aprendizaje, aprendamos primero cómo podemos evaluar los modelos que producen.
11.1 Validación cruzada de modelos
Problema
Quieres evaluar lo bien que generaliza tu modelo de clasificación a datos imprevistos.
Solución
Crea una canalización que preprocese los datos, entrene el modelo y luego lo evalúe mediante validación cruzada:
# Load librariesfromsklearnimportdatasetsfromsklearnimportmetricsfromsklearn.model_selectionimportKFold,cross_val_scorefromsklearn.pipelineimportmake_pipelinefromsklearn.linear_modelimportLogisticRegressionfromsklearn.preprocessingimportStandardScaler# Load digits datasetdigits=datasets.load_digits()# Create features matrixfeatures=digits.data# Create target vectortarget=digits.target# Create standardizerstandardizer=