Kapitel 13. Pipelines für die Datenverarbeitung
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Die Datenverarbeitung ist ein komplexer Bereich, der sich ständig weiterentwickelt, um den Anforderungen größerer Datensätze, intensiver Datenumwandlungen und dem Wunsch nach schnellen, zuverlässigen und kostengünstigen Ergebnissen gerecht zu werden. Heute werden Daten aus einer Vielzahl von Quellen generiert und gesammelt - von mobilen Nutzungsstatistiken über integrierte Sensornetzwerke bis hin zu Webanwendungsprotokollen und mehr. Datenverarbeitungspipelines können diese oft unbegrenzten, ungeordneten, globalen Datensätze in eine strukturierte, indizierte Speicherung umwandeln, die bei wichtigen Geschäftsentscheidungen helfen oder neue Produktfunktionen freischalten kann. Die Datenverarbeitung bietet nicht nur Einblicke in das System- und Nutzerverhalten, sondern ist oft auch geschäftskritisch. Verspätete oder fehlerhafte Daten in deiner Pipeline können zu Problemen führen, die teuer, arbeitsintensiv und zeitaufwändig zu beheben sind.
In diesem Kapitel werden zunächst anhand von Produktbeispielen einige gängige Anwendungsarten von Big-Data-Verarbeitungspipelines untersucht. Anschließend wird erläutert, wie man die Anforderungen an Pipelines und Entwurfsmuster ermittelt, und es werden einige bewährte Methoden zur ...
Get Das Arbeitsbuch zur Standortzuverlässigkeit now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.