Kapitel 9. Apache Flink
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Apache Flink ist ein effizientes Stream-Processing-Framework, das Batch- und Echtzeitdaten mit hohem Durchsatz und geringer Latenz verarbeiten kann. Es verfügt über robuste Funktionen wie Event-Time-Verarbeitung, Exact-once-Semantik und verschiedene Windowing-Mechanismen. Die Kombination von Apache Flink und Apache Iceberg bringt mehrere Vorteile mit sich. Fähigkeiten von Iceberg wie die Snapshot-Isolierung für Lese- und Schreibvorgänge, die Fähigkeit, mehrere gleichzeitige Operationen zu verarbeiten, ACID-konforme Abfragen und inkrementelle Lesevorgänge ermöglichen es Flink, Operationen durchzuführen, die mit älteren Tabellenformaten normalerweise schwierig waren. Zusammen bieten sie eine effiziente und skalierbare Plattform für die Verarbeitung großer Datenmengen, insbesondere für Streaming-Anwendungsfälle.
In diesem Kapitel werden wir uns mit der praktischen Nutzung von Apache Flink mit Apache Iceberg beschäftigen. Wir werden uns vor allem mit der Konfiguration und Einrichtung des Flink SQL Client mit einem Iceberg-Katalog für die meisten Beispiele befassen, wie z. B. das Ausführen von DDL-Befehlen, das Ausführen von Lese- und Schreibabfragen und das Zeigen, wie einige dieser Operationen mit den Flink DataStream- und Table-APIs in Java durchgeführt werden. All diese Vorgänge kannst du mit den angegebenen Schritten auf ...
Get Apache Iceberg: Der endgültige Leitfaden now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.