Kapitel 39. Hyperparameter und Modellvalidierung
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Im vorherigen Kapitel haben wir das Grundrezept für die Anwendung eines überwachten maschinellen Lernmodells gesehen:
-
Wähle eine Klasse von Modellen.
-
Wähle die Hyperparameter des Modells.
-
Passe das Modell an die Trainingsdaten an.
-
Nutze das Modell, um Beschriftungen für neue Daten vorherzusagen.
Die ersten beiden Punkte - die Wahl des Modells und die Wahl der Hyperparameter - sind vielleicht der wichtigste Teil einer effektiven Nutzung dieser Werkzeuge und Techniken. Um fundierte Entscheidungen treffen zu können, müssen wir überprüfen können, ob unser Modell und unsere Hyperparameter gut zu den Daten passen. Das mag einfach klingen, aber es gibt einige Fallstricke, die du vermeiden musst, um dies effektiv zu tun.
Über die Modellvalidierung nachdenken
Im Prinzip ist die Modellvalidierung sehr einfach: Nachdem wir ein Modell und seine Hyperparameter ausgewählt haben, können wir abschätzen, wie effektiv es ist, indem wir es auf einen Teil der Trainingsdaten anwenden und die Vorhersagen mit den bekannten Werten vergleichen.
In diesem Abschnitt wird zunächst ein naiver Ansatz für die Modellvalidierung vorgestellt und erläutert, warum er fehlschlägt, bevor die Verwendung von Holdout-Sets und Kreuzvalidierung für eine robustere Modellbewertung untersucht wird.
Modellvalidierung auf die falsche ...
Get Python Data Science Handbook, 2. Auflage now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.