Kapitel 6. Verteiltes Caching

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Caches gibt es an vielen Stellen in einer Anwendung. Die CPUs, auf denen deine Anwendungen laufen, haben schnelle, mehrstufige Hardware-Caches, um relativ langsame Hauptspeicherzugriffe zu reduzieren. Datenbank-Engines können den Hauptspeicher nutzen, um den Inhalt des Datenspeichers zwischenzuspeichern, so dass Abfragen in vielen Fällen nicht auf relativ langsame Festplatten zugreifen müssen.

Verteiltes Caching ist ein wesentlicher Bestandteil eines skalierbaren Systems. Durch das Caching werden die Ergebnisse von teuren Abfragen und Berechnungen für die Wiederverwendung durch nachfolgende Anfragen zu geringen Kosten verfügbar gemacht. Da die zwischengespeicherten Ergebnisse nicht bei jeder Anfrage neu aufgebaut werden müssen, erhöht sich die Kapazität des Systems, und es kann größere Arbeitslasten bewältigen.

In diesem Kapitel werde ich zwei Arten von Caching behandeln. Das Anwendungscaching erfordert eine Geschäftslogik, die das Zwischenspeichern und den Zugriff auf vorberechnete Ergebnisse mithilfe verteilter Caches beinhaltet. Das Web-Caching nutzt Mechanismen, die im HTTP-Protokoll eingebaut sind, um die Zwischenspeicherung von Ergebnissen innerhalb der Infrastruktur des Internets zu ermöglichen. Wenn beide effektiv eingesetzt werden, schützen sie deine Dienste und Datenbanken vor einer hohen Last an Leseverkehr. ...

Get Grundlagen der skalierbaren Systeme now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.