Kapitel 6. Daten speichern

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Das Ausdrucken auf dem Terminal macht zwar viel Spaß, ist aber nicht besonders nützlich, wenn es um die Zusammenführung und Analyse von Daten geht. Damit die meisten Web Scraper auch nur annähernd nützlich sind, musst du in der Lage sein, die gesammelten Informationen zu speichern.

Dieses Kapitel von behandelt drei Hauptmethoden der Datenverwaltung, die für fast alle denkbaren Anwendungen ausreichen. Musst du das Backend einer Website betreiben oder deine eigene API erstellen? Wahrscheinlich möchtest du, dass deine Scraper in eine Datenbank schreiben. Brauchst du eine schnelle und einfache Möglichkeit, um Dokumente aus dem Internet zu sammeln und auf deiner Festplatte abzulegen? Dann wirst du wahrscheinlich einen Dateistream für diese Zwecke erstellen wollen. Brauchst du gelegentliche Benachrichtigungen oder einmal am Tag gesammelte Daten? Dann schick dir eine E-Mail!

Über das Web Scraping hinaus ist die Fähigkeit, große Datenmengen zu speichern und mit ihnen zu interagieren, für nahezu jede moderne Programmieranwendung unglaublich wichtig. Die Informationen in diesem Kapitel sind sogar notwendig, um viele der Beispiele in späteren Abschnitten des Buches zu implementieren. Ich empfehle dir, dieses Kapitel zumindest zu überfliegen, wenn du mit automatischer Speicherung von Daten noch nicht vertraut bist.

Medien-Dateien ...

Get Web Scraping mit Python, 2. Auflage now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.