Cloud Load Balancing-Ressourcenmodell

Ein Load-Balancer ist ein System, das aus mehreren interagierenden Komponenten besteht. Es gibt keine einzelne API-Ressource, die einen Load Balancer darstellt. Stattdessen arbeiten mehrere Komponenten zusammen, um den eingehenden Traffic auf mehrere Back-Ends zu verteilen.

Das folgende Diagramm zeigt die Kernkomponenten eines Application Load Balancers, eines Proxy-Network-Load-Balancers und eines Passthrough-Network-Load-Balancers.

Application Load Balancer

Komponenten eines Application Load Balancers
Komponenten eines Application Load Balancers (zum Vergrößern klicken).

Proxy-Network Load Balancer

Komponenten eines Proxy-Network-Load-Balancers
Komponenten eines Proxy-Network Load Balancers (zum Vergrößern klicken).

Passthrough-Network-Load-Balancer

Komponenten eines Passthrough-Network Load Balancers
Komponenten eines Passthrough-Network Load Balancers (zum Vergrößern klicken)

In diesem Abschnitt finden Sie einen allgemeinen Überblick über die wichtigsten Komponenten eines Load-Balancers, beginnend mit dem Punkt, an dem Traffic den Load-Balancer erreicht, bis hin zur Weiterleitung an die Backend-Ressource. Weitere Informationen zu den einzelnen Load-Balancer-Komponenten finden Sie auf der Seite, die in den einzelnen Abschnitten verlinkt ist.

Weiterleitungsregel

Eine Weiterleitungsregel gibt eine IP-Adresse, ein IP-Protokoll und einen oder mehrere Ports an, an denen der Load Balancer Traffic annimmt. Die Weiterleitungsregel und die zugehörige IP-Adresse bilden das Frontend eines Trusted Cloud by S3NS Load-Balancers.

Weitere Informationen finden Sie unter Weiterleitungsregeln – Übersicht.

Zielproxy

Zielproxys beenden eingehende Verbindungen von Clients und erstellen neue Verbindungen vom Load Balancer zu den Back-Ends.

  • Die erste Verbindung stammt vom Client und wird am Zielproxy des Load Balancers beendet.

  • Die zweite Verbindung beginnt am Zielproxy und endet an der Backend-Instanz, die die Clientanfrage verarbeitet.

Die erste Verbindung wird entweder in einem Google Front End (GFE) oder in einem speziell dafür vorgesehenen Subnetz beendet, das als Nur-Proxy-Subnetz bezeichnet wird und ausschließlich für Envoy-Proxys reserviert ist. Ob ein Load-Balancer auf GFE oder Envoy basiert, erfahren Sie unter Zugrunde liegende Technologien von Trusted Cloud by S3NS Load-Balancern.

Zielproxys werden nur von proxybasierten Load Balancern wie Application Load Balancern und Proxy-Network Load Balancern verwendet. Bei diesen Arten von Load-Balancern werden Antworten von den Backend-Instanzen an den Zielproxy und nicht direkt an den Client zurückgesendet.

Weitere Informationen finden Sie unter Zielproxys.

Nur-Proxy-Subnetz

Ein Nur-Proxy-Subnetz bietet einen Pool von IP-Adressen, die ausschließlich für Envoy-Proxys reserviert sind, die von Trusted Cloud by S3NS Load-Balancern verwendet werden. Die Proxys beenden eingehende Verbindungen und stellen dann neue Verbindungen zum Backend her.

Weitere Informationen finden Sie unter Nur-Proxy-Subnetze für Envoy-basierte Load Balancer.

SSL-Zertifikate

SSL-Zertifikate, auch bekannt als Transport Layer Security (TLS)-Zertifikate, ermöglichen eine sichere Kommunikation zwischen Clients und Load-Balancern. Proxybasierte Load Balancer, deren Weiterleitungsregeln auf einen Ziel-HTTPS-Proxy oder einen Ziel-SSL-Proxy verweisen, benötigen einen privaten Schlüssel und ein SSL-Zertifikat als Teil der Zielproxy-Konfiguration des Load Balancers.

Weitere Informationen finden Sie unter SSL-Zertifikate.

URL-Zuordnung

Nachdem die Verbindung beendet wurde, verwendet der HTTP(S)-Zielproxy die URL-Zuordnung, um zu entscheiden, wohin die neue Anfrage (die zweite Verbindung, wie im Abschnitt Zielproxy beschrieben) weitergeleitet werden soll. Die URL-Zuordnung leitet die Anfrage entweder an den Backend-Dienst oder an den Backend-Bucket weiter. URL-Zuordnungen werden nur von Application Load Balancern verwendet. Da Application Load Balancer auf Layer 7 des OSI-Modells ausgeführt werden, können sie Routingentscheidungen auf Grundlage von HTTP-Attributen wie Domainname, Anfragepfad und Abfrageparametern treffen.

Weitere Informationen finden Sie unter URL-Zuordnungen.

Backend-Dienst

Ein Back-End-Dienst definiert, wie Ihr Load Balancer Traffic verteilt. Die Konfiguration des Back-End-Dienstes enthält eine Reihe von Werten, z. B. das Protokoll, das für die Verbindung zu Back-Ends verwendet wird, verschiedene Verteilungs- und Sitzungseinstellungen, Systemdiagnosen und Zeitüberschreitungen.

Mit diesen Einstellungen können Sie das Verhalten Ihres Load-Balancers genau steuern und Traffic an die richtigen Back-Ends weiterleiten. Das können entweder VM-Instanzgruppen oder Netzwerk-Endpunktgruppen (NEGs) sein.

Weitere Informationen finden Sie unter Übersicht über Back-End-Dienste.

Systemdiagnosen

Wenn Sie den Backend-Dienst eines Load-Balancers konfigurieren, müssen Sie eine oder mehrere Systemdiagnosen für die zugehörigen Backends angeben. Wie der Name schon sagt, wird mit einer Systemdiagnose ermittelt, ob die Back-End-Instanzen des Load-Balancers fehlerfrei sind. Diese Entscheidung basiert auf der Fähigkeit des Back-Ends, auf eingehenden Traffic zu reagieren. Der Traffic, auf den ein Back-End reagieren muss, hängt vom Typ des Load-Balancers ab. Sie können Systemdiagnosen mit Layer 7- und Layer 4-Protokollen erstellen, um Instanzen mit Load-Balancing zu überwachen.

Firewallregeln

Damit Systemdiagnosen funktionieren, müssen Sie allow-Firewallregeln für eingehenden Traffic erstellen, die es Systemdiagnoseprüfungen ermöglichen, Ihre Back-Ends zu erreichen.

Load-Balancer, die auf Google Front Ends basieren, erfordern eine Firewallregel zum Zulassen von eingehendem Traffic, die Traffic von den CIDRs von Google Front End zu Ihren Back-Ends zulässt. Load-Balancer, die auf dem Open-Source-Envoy-Proxy basieren, erfordern eine allow-Firewallregel für eingehenden Traffic, die Traffic vom Nur-Proxy-Subnetz zu den Backend-Instanzen zulässt.

Weitere Informationen finden Sie unter Firewallregeln.

Back-Ends

Back-Ends sind das endgültige Ziel von Load-Balancing-Traffic.

Verschiedene Load Balancer unterstützen unterschiedliche Arten von Back-Ends. Wenn Sie dem Back-End-Dienst ein Back-End hinzufügen, geben Sie einen Balancing-Modus an. In diesem Modus wird die Kapazität des Back-Ends zur Verarbeitung neuer Anfragen bewertet und bestimmt, wie der Traffic auf die Back-Ends verteilt wird.

Weitere Informationen finden Sie unter Back-Ends.

Nächste Schritte

  • Informationen darüber, welcher Trusted Cloud Load-Balancer Ihren Anforderungen am besten entspricht, finden Sie unter Load-Balancer auswählen.
  • Eine vergleichende Übersicht über die von Cloud Load Balancing angebotenen Load-Balancing-Features finden Sie unter Load-Balancer-Features im Vergleich.