Capítulo 20. Equilibrio de carga en el centro de datos
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Este capítulo se centra en el equilibrio de la carga dentro del centro de datos. En concreto, trata de los algoritmos para distribuir el trabajo dentro de un centro de datos determinado para un flujo de consultas. Cubrimos las políticas a nivel de aplicación para dirigir las peticiones a servidores individuales que puedan procesarlas. Los principios de redes de nivel inferior (por ejemplo, conmutadores, enrutamiento de paquetes) y la selección del centro de datos quedan fuera del alcance de este capítulo.
Supón que hay un flujo de consultas que llegan al centro de datos -pueden proceder del propio centro de datos, de centros de datos remotos o de una mezcla de ambos- a un ritmo que no supera los recursos de que dispone el centro de datos para procesarlas (o sólo los supera durante muy poco tiempo). Supón también que existenservicios dentro del centro de datos, contra los que operan estas consultas. Estos servicios se implementan como muchos procesos de servidor homogéneos e intercambiables que, en su mayoría, se ejecutan en máquinas diferentes. Los servicios más pequeños suelen tener al menos tres de estos procesos (utilizar menos procesos significa perder el 50% o más de tu capacidad si pierdes una sola máquina) y los más grandes pueden tener más ...
Get Ingeniería de Fiabilidad del Sitio now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.