Kapitel 11. Modellbewertung
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
11.0 Einleitung
In diesem Kapitel werden wir Strategien zur Bewertung der Qualität von Modellen untersuchen, die mit unseren Lernalgorithmen erstellt wurden. Es mag seltsam erscheinen, die Bewertung von Modellen zu erörtern, bevor wir darüber sprechen, wie sie erstellt werden, aber es gibt eine Methode für unseren Wahnsinn. Modelle sind nur so nützlich wie die Qualität ihrer Vorhersagen. Unser Ziel ist es also nicht, Modelle zu erstellen (was einfach ist), sondern qualitativ hochwertige Modelle zu entwickeln (was schwierig ist). Bevor wir uns also mit den unzähligen Lernalgorithmen befassen, sollten wir zunächst lernen, wie wir die von ihnen erstellten Modelle bewerten können.
11.1 Kreuzvalidierung von Modellen
Problem
Du möchtest bewerten, wie gut dein Klassifizierungsmodell auf unvorhergesehene Daten verallgemeinert.
Lösung
Erstelle eine Pipeline, die die Daten vorverarbeitet, das Modell trainiert und es dann mithilfe einer Kreuzvalidierung auswertet:
# Load librariesfromsklearnimportdatasetsfromsklearnimportmetricsfromsklearn.model_selectionimportKFold,cross_val_scorefromsklearn.pipelineimportmake_pipelinefromsklearn.linear_modelimportLogisticRegressionfromsklearn.preprocessingimportStandardScaler# Load digits datasetdigits=datasets.load_digits()# Create features matrixfeatures ...