Kapitel 42. Vertiefung: Lineare Regression
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
So wie Naive Bayes (siehe Kapitel 41) ein guter Ausgangspunkt für Klassifizierungsaufgaben ist, sind lineare Regressionsmodelle ein guter Ausgangspunkt für Regressionsaufgaben. Solche Modelle sind beliebt, weil sie schnell angepasst werden können und einfach zu interpretieren sind. Die einfachste Form eines linearen Regressionsmodells (d. h. die Anpassung einer geraden Linie an zweidimensionale Daten) kennst du bereits, aber solche Modelle können auch erweitert werden, um komplizierteres Datenverhalten zu modellieren.
In diesem Kapitel beginnen wir mit einem kurzen Überblick über die Mathematik, die hinter diesem bekannten Problem steckt, bevor wir uns ansehen, wie lineare Modelle verallgemeinert werden können, um kompliziertere Muster in Daten zu berücksichtigen.
Wir beginnen mit den Standardimporten:
In
[
1
]:
%
matplotlib
inlineimport
matplotlib.pyplot
as
plt
plt
.
style
.
use
(
'seaborn-whitegrid'
)
import
numpy
as
np
Einfache lineare Regression
Wir beginnen mit der bekanntesten linearen Regression, einer geradlinigen Anpassung an die Daten. Eine geradlinige Anpassung ist ein Modell der Form:
wobei allgemein als die Steigung bekannt ist und wird allgemein als Achsenabschnitt bezeichnet.
Betrachte die folgenden Daten, die um eine Linie mit einer Steigung von 2 und einem Schnittpunkt ...
Get Python Data Science Handbook, 2. Auflage now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.