Kapitel 42. Vertiefung: Lineare Regression

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

So wie Naive Bayes (siehe Kapitel 41) ein guter Ausgangspunkt für Klassifizierungsaufgaben ist, sind lineare Regressionsmodelle ein guter Ausgangspunkt für Regressionsaufgaben. Solche Modelle sind beliebt, weil sie schnell angepasst werden können und einfach zu interpretieren sind. Die einfachste Form eines linearen Regressionsmodells (d. h. die Anpassung einer geraden Linie an zweidimensionale Daten) kennst du bereits, aber solche Modelle können auch erweitert werden, um komplizierteres Datenverhalten zu modellieren.

In diesem Kapitel beginnen wir mit einem kurzen Überblick über die Mathematik, die hinter diesem bekannten Problem steckt, bevor wir uns ansehen, wie lineare Modelle verallgemeinert werden können, um kompliziertere Muster in Daten zu berücksichtigen.

Wir beginnen mit den Standardimporten:

In [1]: %matplotlib inline
        import matplotlib.pyplot as plt
        plt.style.use('seaborn-whitegrid')
        import numpy as np

Einfache lineare Regression

Wir beginnen mit der bekanntesten linearen Regression, einer geradlinigen Anpassung an die Daten. Eine geradlinige Anpassung ist ein Modell der Form:

y = a x + b

wobei a allgemein als die Steigung bekannt ist und b wird allgemein als Achsenabschnitt bezeichnet.

Betrachte die folgenden Daten, die um eine Linie mit einer Steigung von 2 und einem Schnittpunkt ...

Get Python Data Science Handbook, 2. Auflage now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.