Kapitel 12. Container-Orchestrierung: Kubernetes
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Wenn du mit Docker experimentierst oder wenn du nur eine Reihe von Docker-Containern auf einem einzigen Rechner laufen lassen willst, dann reichen Docker und Docker Compose für deine Bedürfnisse aus. Sobald du jedoch von der Nummer 1
(einzelne Maschine) zur Nummer 2
(mehrere Maschinen) übergehst, musst du dir Gedanken über die Orchestrierung der Container im Netzwerk machen. Für Produktionsszenarien ist dies eine Selbstverständlichkeit. Du brauchst mindestens zwei Maschinen, um Fehlertoleranz/Hochverfügbarkeit zu erreichen.
Im Zeitalter des Cloud Computing wird empfohlen, eine Infrastruktur "nach außen" zu skalieren (auch als "horizontale Skalierbarkeit" bezeichnet), indem mehr Instanzen zum Gesamtsystem hinzugefügt werden, im Gegensatz zur älteren Skalierung "nach oben" (oder "vertikalen Skalierbarkeit"), bei der einer einzelnen Instanz mehr CPUs und Speicher zugewiesen werden. Eine Docker-Orchestrierungsplattform nutzt diese vielen Instanzen oder Knoten als Quelle für Rohressourcen (CPU, Speicher, Netzwerk), die sie dann den einzelnen Containern zuweist, die innerhalb der Plattform laufen. Dies steht im Zusammenhang mit den Vorteilen von Containern gegenüber klassischen virtuellen Maschinen (VMs), die wir in Kapitel 11 erwähnt haben: Die Ressourcen, die dir zur Verfügung stehen, werden besser genutzt, ...
Get Python für DevOps now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.