Kapitel 10. Dimensionalitätsreduktion durch Merkmalsauswahl

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

10.0 Einleitung

In Kapitel 9 haben wir besprochen, wie wir die Dimensionalität unserer Merkmalsmatrix reduzieren können, indem wir neue Merkmale mit (idealerweise) ähnlichen Fähigkeiten erstellen, um Qualitätsmodelle zu trainieren, aber mit deutlich weniger Dimensionen. Dies wird als Merkmalsextraktion bezeichnet. In diesem Kapitel behandeln wir einen alternativen Ansatz: die Auswahl hochwertiger, informativer Merkmale und das Weglassen weniger nützlicher Merkmale. Dies wird als Feature Selection bezeichnet.

Es gibt drei Arten von Merkmalsauswahlmethoden: Filter, Wrapper und Embedded. Filtermethoden wählen die besten Merkmale aus, indem sie ihre statistischen Eigenschaften untersuchen. Methoden, bei denen wir explizit einen Schwellenwert für eine Statistik festlegen oder die Anzahl der Merkmale, die wir behalten wollen, manuell auswählen, sind Beispiele für die Merkmalsauswahl durch Filterung. Wrapper-Methoden verwenden Versuch und Irrtum, um die Untergruppe von Merkmalen zu finden, die Modelle mit der besten Vorhersagequalität hervorbringt. Wrapper-Methoden sind oft am effektivsten, da sie das beste Ergebnis durch tatsächliches Ausprobieren und nicht durch naive Annahmen finden. Eingebettete Methoden schließlich wählen die beste Untergruppe von Merkmalen als Teil des Trainingsprozesses ...

Get Maschinelles Lernen mit Python Kochbuch, 2. now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.