Kapitel 20. Load Balancing im Rechenzentrum

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Dieses Kapitel befasst sich mit dem Lastausgleich innerhalb des Rechenzentrums. Konkret geht es um Algorithmen zur Verteilung der Arbeit innerhalb eines bestimmten Rechenzentrums für einen Strom von Abfragen. Wir behandeln Richtlinien auf Anwendungsebene für die Weiterleitung von Anfragen an einzelne Server, die sie bearbeiten können. Netzwerkprinzipien auf unterer Ebene (z. B. Switches, Paketrouting) und die Auswahl von Rechenzentren sind nicht Gegenstand dieses Kapitels.

Nehmen wir an, dass ein Strom von Anfragen im Rechenzentrum eintrifft - diese können vom Rechenzentrum selbst, von entfernten Rechenzentren oder einer Mischung aus beidem kommen - und zwar in einer Geschwindigkeit, die die Ressourcen des Rechenzentrums nicht übersteigt (oder sie nur für sehr kurze Zeit übersteigt), um sie zu bearbeiten. Nimm außerdem an, dass es innerhalb des RechenzentrumsDienste gibt, gegen die diese Abfragen gerichtet sind. Diese Dienste sind als viele homogene, austauschbare Serverprozesse implementiert, die meist auf verschiedenen Rechnern laufen. Die kleinsten Dienste haben in der Regel mindestens drei solcher Prozesse (wenn du weniger Prozesse verwendest, verlierst du 50 % oder mehr deiner Kapazität, wenn du einen einzigen Rechner ausfallen ...

Get Site Reliability Engineering now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.