Kapitel 15. Eigendekomposition und SVD-Anwendungen
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Eigendekomposition und SVD sind Juwelen, die die lineare Algebra der modernen menschlichen Zivilisation geschenkt hat. Ihre Bedeutung in der modernen angewandten Mathematik kann gar nicht hoch genug eingeschätzt werden, und ihre Anwendungen sind unzählig und erstrecken sich über unzählige Disziplinen.
In diesem Kapitel stelle ich drei Anwendungen vor, die dir in den Datenwissenschaften und verwandten Bereichen wahrscheinlich begegnen werden. Mein Hauptziel ist es, dir zu zeigen, dass scheinbar komplizierte Techniken der Datenwissenschaft und des maschinellen Lernens eigentlich ziemlich sinnvoll und leicht zu verstehen sind, wenn du die Themen der linearen Algebra in diesem Buch gelernt hast.
PCA mit Eigendekomposition und SVD
Der Zweck der PCA ist es, eine Reihe von Basisvektoren für einen Datensatz zu finden, die in die Richtung zeigen, die die Kovarianz zwischen den Variablen maximiert.
Stell dir vor, dass ein N-D-Datensatz in einem N-D-Raum existiert, wobei jeder Datenpunkt eine Koordinate in diesem Raum ist. Das ist sinnvoll, wenn du dir vorstellst, die Daten in einer Matrix mit N Beobachtungen (jede Zeile ist eine Beobachtung) von M Merkmalen (jede Spalte ist ein Merkmal, auch Variable oder Messung genannt) zu speichern; die Daten leben in und bestehen aus N Vektoren oder Koordinaten. ...