Kapitel 11. Vergleich von Modellen mit Resampling
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Sobald wir zwei oder mehr Modelle erstellt haben, müssen wir sie vergleichen, um herauszufinden, welches Modell am besten ist. In einigen Fällen kann es sich um modellinterne Vergleiche handeln, bei denen dasselbe Modell mit unterschiedlichen Merkmalen oder Vorverarbeitungsmethoden bewertet wird. In anderen Fällen werden Vergleiche zwischen den Modellen durchgeführt, wie z. B. der Vergleich zwischen linearer Regression und Random-Forest-Modellen in Kapitel 10, der häufiger vorkommt.
In beiden Fällen ist das Ergebnis eine Sammlung von zusammenfassenden Statistiken (z. B. RMSE, Genauigkeit usw.) für jedes Modell, die neu abgetastet werden. In diesem Kapitel zeigen wir zunächst, wie Workflow-Sets zur Anpassung mehrerer Modelle verwendet werden können. Dann besprechen wir wichtige Aspekte der Resampling-Statistik. Schließlich werden wir uns ansehen, wie man Modelle formal vergleicht (entweder mit Hypothesentests oder einem Bayes'schen Ansatz).
Mehrere Modelle mit Workflow-Sets erstellen
In Kapitel 7 haben wir die Idee eines Workflow-Sets beschrieben, bei dem verschiedene Präprozessoren und/oder Modelle kombinatorisch erzeugt werden können. In Kapitel 10 haben wir ein Rezept für die Ames-Daten verwendet, das einen Interaktionsterm sowie Spline-Funktionen für Längen- und Breitengrade enthält. Um mehr ...
Get Aufgeräumtes Modellieren mit R now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.