Modelo de recursos de Cloud Load Balancing

Un balanceador de cargas es un sistema compuesto por varios componentes que interactúan entre sí. No hay un solo recurso de API que represente un balanceador de cargas. En cambio, varios componentes trabajan en conjunto para distribuir el tráfico entrante entre varios backends.

En el siguiente diagrama, se muestran los componentes principales de un balanceador de cargas de aplicaciones, un balanceador de cargas de red de proxy y un balanceador de cargas de red de transferencia.

Balanceador de cargas de aplicaciones

Componentes de un balanceador de cargas de aplicaciones
Componentes de un balanceador de cargas de aplicaciones (haz clic para ampliar).

Balanceador de cargas de red del proxy

Componentes de un balanceador de cargas de red del proxy
Componentes de un balanceador de cargas de red de proxy (haz clic para ampliar).

Balanceador de cargas de red de transferencia

Componentes de un balanceador de cargas de red de transferencia
Componentes de un balanceador de cargas de red de transferencia (haz clic para ampliar).

En esta sección, se proporciona una descripción general de alto nivel de los componentes clave de un balanceador de cargas, desde el punto en el que el tráfico llega al balanceador de cargas hasta la etapa en la que se enruta al recurso de backend. Para comprender mejor cada componente del balanceador de cargas, consulta la página vinculada en cada sección.

Regla de reenvío

Una regla de reenvío especifica una dirección IP, un protocolo IP y uno o más puertos en los que el balanceador de cargas acepta tráfico. La regla de reenvío y su dirección IP adjunta representan el frontend de un Trusted Cloud by S3NS balanceador de cargas.

Para obtener más información, consulta Descripción general de las reglas de reenvío.

Proxy de destino

Los proxies de destino finalizan las conexiones entrantes de los clientes y crean conexiones nuevas desde el balanceador de cargas a los backends.

  • La primera conexión se origina en el cliente y finaliza en el proxy de destino del balanceador de cargas.

  • La segunda conexión comienza en el proxy de destino y finaliza en la instancia de backend, que controla la solicitud del cliente.

La primera conexión finaliza en un Google Front End (GFE) o en una subred especialmente designada conocida como subred de solo proxy, que se reserva exclusivamente para los proxies de Envoy. Para saber si un balanceador de cargas se basa en GFE o en Envoy, consulta Tecnologías subyacentes de los balanceadores de cargas. Trusted Cloud by S3NS

Los proxies de destino solo se usan con balanceadores de cargas basados en proxy, como los balanceadores de cargas de aplicaciones y los balanceadores de cargas de red de proxy. En el caso de estos tipos de balanceadores de cargas, las respuestas de las instancias de backend se envían de vuelta al proxy de destino en lugar de directamente al cliente.

Para obtener más información, consulta Proxies de destino.

Subred de solo proxy

Una subred de solo proxy proporciona un grupo de direcciones IP que se reservan exclusivamente para proxies de Envoy que usan los balanceadores de cargas Trusted Cloud by S3NS . Los proxies finalizan las conexiones entrantes y, luego, crean conexiones nuevas al backend.

Si deseas obtener más información, consulta Subredes de solo proxy para balanceadores de cargas basados en Envoy.

Certificados SSL

También conocidos como certificados de seguridad de la capa de transporte (TLS), los certificados SSL facilitan la comunicación segura entre los clientes y los balanceadores de cargas. Los balanceadores de cargas basados en proxy cuyas reglas de reenvío hacen referencia a un proxy HTTPS de destino o a un proxy SSL de destino requieren una clave privada y un certificado SSL como parte de la configuración del proxy de destino del balanceador de cargas.

Para obtener más información, consulta Certificados SSL.

Mapa de URL

Cuando finaliza la conexión, el proxy HTTP(S) de destino usa el mapa de URL para decidir a dónde enrutar la nueva solicitud (la segunda conexión, como se indica en la sección Proxy de destino). El mapa de URL enruta la solicitud al servicio de backend o al bucket de backend. Los mapas de URL solo los usan los balanceadores de cargas de aplicaciones. Como los balanceadores de cargas de aplicaciones operan en la capa 7 del modelo OSI, pueden tomar decisiones de enrutamiento basadas en atributos HTTP, como el nombre de dominio, la ruta de solicitud y los parámetros de consulta.

Para obtener más información, consulta Mapas de URL.

Servicio de backend

Un servicio de backend define cómo tu balanceador de cargas distribuye el tráfico. La configuración del servicio de backend contiene un conjunto de valores, como el protocolo que se usa para conectarse a backends, varios parámetros de configuración de distribución y sesión, verificaciones de estado y tiempos de espera.

Esta configuración proporciona un control detallado sobre el comportamiento del balanceador de cargas y te permite dirigir el tráfico a los backends correctos, que pueden ser grupos de instancias de VM o grupos de extremos de red (NEG).

Para obtener más información, consulta Descripción general de los servicios de backend.

Verificaciones de estado

Cuando configuras el servicio de backend de un balanceador de cargas, debes especificar una o más verificaciones de estado para sus backends. Una verificación de estado, como su nombre lo indica, determina si las instancias de backend del balanceador de cargas se encuentran en buen estado. Esta determinación se basa en la capacidad del backend para responder al tráfico entrante. El tráfico al que debe responder un backend depende del tipo de balanceador de cargas. Puedes crear verificaciones de estado con protocolos de capa 7 y capa 4 para supervisar las instancias con balanceo de cargas.

Reglas de firewall

Para que las verificaciones de estado funcionen, debes crear reglas de firewall de entrada allow que permitan que los sondeos de verificación de estado lleguen a tus backends.

Los balanceadores de cargas basados en Google Front Ends requieren una regla de firewall de permiso de entrada que permita que el tráfico de los CIDR de Google Front End se conecte a tus backends. Los balanceadores de cargas basados en el proxy Envoy de código abierto requieren una regla de firewall de allow entrada que permita que el tráfico de la subred de solo proxy llegue a las instancias de backend.

Para obtener más información, consulta Reglas de firewall.

Backends

Los backends son el destino final del tráfico con carga balanceada.

Los diferentes balanceadores de cargas admiten diferentes tipos de backends. Cuando agregas un backend al servicio de backend, debes especificar un modo de balanceo. Este modo evalúa la capacidad del backend para controlar solicitudes nuevas y determina cómo se distribuye el tráfico entre los backends.

Para obtener más información, consulta Backends.

¿Qué sigue?