Kapitel 9. Flink für Streaming-Anwendungen einrichten

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Die heutigen Dateninfrastrukturen sind vielfältig. Verteilte Datenverarbeitungs-Frameworks wie Apache Flink müssen so eingerichtet werden, dass sie mit verschiedenen Komponenten wie Ressourcenmanagern, Dateisystemen und Diensten zur verteilten Koordination interagieren können.

In diesem Kapitel gehen wir auf die verschiedenen Möglichkeiten ein, Flink-Cluster einzusetzen, sie sicher zu konfigurieren und hochverfügbar zu machen. Wir erklären Flink-Setups für verschiedene Hadoop-Versionen und Dateisysteme und besprechen die wichtigsten Konfigurationsparameter der Master- und Worker-Prozesse von Flink. Nach der Lektüre dieses Kapitels wirst du wissen, wie du einen Flink-Cluster einrichtest und konfigurierst.

Einsatzmodi

Flink kann in verschiedenen Umgebungen eingesetzt werden, z. B. auf einem lokalen Rechner, einem Bare-Metal-Cluster, einem Hadoop-YARN-Cluster oder einem Kubernetes-Cluster. In "Komponenten eines Flink-Setups" haben wir die verschiedenen Komponenten eines Flink-Setups vorgestellt: den JobManager, TaskManager, ResourceManager und Dispatcher. In diesem Abschnitt erklären wir, wie Flink in verschiedenen Umgebungen konfiguriert und gestartet wird - darunter eigenständige Cluster, Docker, Apache Hadoop YARN und Kubernetes - und wie die Komponenten von Flink in jeder Umgebung zusammengesetzt ...

Get Stream Processing mit Apache Flink now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.