Kapitel 7. Mit Daten arbeiten

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Einer der größten Paradigmenwechsel bei der Arbeit mit Cloud Computing ist die nahezu unbegrenzte Speicherung, die den Nutzern jetzt zur Verfügung steht. Günstige, skalierbare Blob-Speicherung in Form von Google Cloud Storage (GCS) ermöglicht es Administratoren, von dem Standpunkt auszugehen, dass Daten niemals gelöscht werden. Bei Diensten wie BigQuery und Spark auf Dataproc kannst du für die langlebige Speicherung getrennt von den Rechenressourcen bezahlen, die du sekundengenau abrechnest. In der Regel ist die Rechenleistung teurer als die Speicherung, so dass dieses Paradigma viel technischen Aufwand für das Verschieben, Archivieren und Abrufen von Daten zwischen verschiedenen Speichersystemen erspart.

Die Rezepte in diesem Kapitel zeigen Tipps und Tricks für die Arbeit mit den verschiedenen Datenebenen der Google Cloud, vom schnelleren Verschieben von Daten in GCS-Buckets über die automatische Archivierung von Langzeitdaten bis hin zu einigen fortgeschrittenen Datenbanktechniken.

Alle Codebeispiele für dieses Kapitel findest du im GitHub-Repository dieses Buches. Du kannst den Code für jedes Rezept kopieren, indem du den Ordner mit der Nummer des jeweiligen Rezepts aufrufst.

7.1 Beschleunigung von Massenübertragungen bei der Speicherung durch Multiprocessing

Problem

Obwohl das Tool gsutil gut funktioniert und ...

Get Google Cloud Kochbuch now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.