Kapitel 2. Grundsätze des Datenmanagements
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
In diesem Buch befassen wir uns nur selten mit den algorithmischen Details, wie Modelle aufgebaut sind oder wie sie strukturiert sind. Die aufregendste algorithmische Entwicklung des letzten Jahres ist die banale Ausführungsform des nächsten Jahres. Stattdessen sind wir vor allem an zwei Dingen interessiert: an den Daten, die zur Erstellung der Modelle verwendet werden, und an der Verarbeitungspipeline, die die Daten in Modelle umwandelt.
Letztlich sind ML-Systeme Datenverarbeitungspipelines, deren Zweck es ist, verwertbare und wiederholbare Erkenntnisse aus Daten zu gewinnen. Es gibt jedoch einige wichtige Unterschiede zwischen ML-Pipelines und herkömmlichen Log-Verarbeitungs- oder Analyse-Pipelines. ML-Pipelines haben ganz andere und spezifische Einschränkungen und schlagen auf unterschiedliche Weise fehl. Ihr Erfolg ist schwer zu messen, und viele Fehler sind schwer zu erkennen. (Wir behandeln diese Themen ausführlich in Kapitel 9.) Im Grunde genommen verbrauchen sie Daten und geben eine verarbeitete Darstellung dieser Daten aus (allerdings in sehr unterschiedlichen Formen). Daher hängen ML-Systeme vollständig von der Struktur, Leistung, Genauigkeit und Zuverlässigkeit der zugrunde liegenden Datensysteme ab. Dies ist die sinnvollste Art, ML-Systeme unter dem Gesichtspunkt der Zuverlässigkeit zu betrachten. ...
Get Zuverlässiges maschinelles Lernen now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.