Kapitel 46. Vertiefung: Vielfältiges Lernen

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Im vorigen Kapitel haben wir gesehen, wie die PCA zur Dimensionalitätsreduzierung eingesetzt werden kann, um die Anzahl der Merkmale eines Datensatzes zu verringern und gleichzeitig die wesentlichen Beziehungen zwischen den Punkten zu erhalten. Die PCA ist zwar flexibel, schnell und leicht zu interpretieren, aber sie funktioniert nicht so gut, wenn es nichtlineare Beziehungen in den Daten gibt, von denen wir gleich einige Beispiele sehen werden.

Um dieses Defizit zu beheben, können wir uns Algorithmen des vielfältigen Lernenszuwenden - eineKlasse von unüberwachten Schätzern, die versuchen, Datensätze als niedrigdimensionale Mannigfaltigkeiten zu beschreiben, die in hochdimensionale Räume eingebettet sind. Wenn du an eine Mannigfaltigkeit denkst, stelle dir am besten ein Blatt Papier vor: Das ist ein zweidimensionales Objekt, das in unserer vertrauten dreidimensionalen Welt lebt.

In der Sprache des Manifold Learning kannst du dir dieses Blatt als eine zweidimensionale Mannigfaltigkeit vorstellen, die in den dreidimensionalen Raum eingebettet ist. Wenn du das Blatt Papier im dreidimensionalen Raum drehst, neu ausrichtest oder streckst, ändert das nichts an seiner flachen Geometrie: Solche Operationen sind so etwas wie lineare Einbettungen. Wenn du das Papier knickst, rollst oder zerknüllst, ist es immer ...

Get Python Data Science Handbook, 2. Auflage now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.