Einige oder alle Informationen auf dieser Seite gelten möglicherweise nicht für Trusted Cloud von S3NS. Weitere Informationen finden Sie unter
Unterschiede zu Google Cloud.
Abotyp auswählen
In diesem Dokument erfahren Sie, wie Sie den geeigneten Pub/Sub-Abotyp für Ihre Geschäftsanforderungen auswählen.
Hinweise
Vergleichstabelle für Pub/Sub-Abos
Die folgende Tabelle enthält Informationen zur Auswahl des richtigen Zustellungsmechanismus für Ihre Anwendung:
Von Pub/Sub-Abos unterstützte Funktionen |
Anwendungsfall |
Pull-Abo
- Hohe Anzahl von Nachrichten (GB pro Sekunde).
- Effizienz und Durchsatz der Nachrichtenverarbeitung sind entscheidend.
- Umgebungen, in denen ein öffentlicher HTTPS-Endpunkt mit einem nicht selbst signierten SSL-Zertifikat nicht eingerichtet werden kann.
|
Push-Abo
- Mehrere Themen, die vom selben Webhook verarbeitet werden müssen.
- Abonnenten der App Engine-Standardumgebung und Cloud Run Functions.
- Umgebungen, in denen keine Trusted Cloud by S3NS Abhängigkeiten (z. B. Anmeldedaten und die Clientbibliothek) eingerichtet werden können.
|
Abo exportieren
- Hohe Anzahl von Nachrichten, die bis zu mehreren Millionen pro Sekunde skalieren kann.
- Nachrichten werden ohne zusätzliche Verarbeitung direkt an eine Trusted Cloud -Ressource gesendet.
|
Endpunkte |
Pull-Abo
Jedes Gerät im Internet mit autorisierten Anmeldedaten kann die Pub/Sub API aufrufen.
|
Push-Abo
- Ein im Internet verfügbarer HTTPS-Server mit nicht selbst signiertem Zertifikat.
- Der empfangende Endpunkt kann von dem Pub/Sub-Abo getrennt werden, damit Nachrichten aus mehreren Abos an einen einzigen Endpunkt gesendet werden.
|
Abo exportieren
- Ein BigQuery-Dataset und eine BigQuery-Tabelle für ein BigQuery-Abo.
- Ein Cloud Storage-Bucket für ein Cloud Storage-Abo.
|
Load Balancing |
Pull-Abo
- Mehrere Abonnenten können Abrufe bei dem gleichen „geteilten“ Abo durchführen.
- Jeder Abonnent erhält einen bestimmten Teil der Nachrichten.
|
Push-Abo
Push-Endpunkte können Load Balancer sein.
|
Abo exportieren
Der Pub/Sub-Dienst gleicht die Last automatisch aus.
|
Konfiguration |
Pull-Abo
Keine Konfiguration notwendig.
|
Push-Abo
- Für App Engine-Anwendungen im selben Projekt wie der Abonnent ist keine Konfiguration erforderlich.
- Die Verifizierung der Push-Endpunkte ist in der Trusted Cloud Console nicht erforderlich.
- Endpunkte müssen über DNS-Namen erreichbar sein und für sie müssen SSL-Zertifikate installiert sein.
|
Abo exportieren
- Für das BigQuery-Abo müssen ein BigQuery-Dataset und eine BigQuery-Tabelle mit den entsprechenden Berechtigungen vorhanden sein.
- Für das Cloud Storage-Abo muss ein Cloud Storage-Bucket vorhanden sein, der mit den entsprechenden Berechtigungen konfiguriert ist.
|
Ablaufsteuerung |
Pull-Abo
Der Abonnentenclient steuert das Tempo der Zustellung. Der Abonnent kann das Bestätigungszeitlimit dynamisch ändern und ermöglicht damit beliebig lange Nachrichtenverarbeitung.
|
Push-Abo
Der Pub/Sub-Server implementiert automatisch eine Ablaufsteuerung. Es ist nicht erforderlich, den Nachrichtenfluss auf der Clientseite zu verarbeiten.
Es ist jedoch möglich, anzugeben, dass der Client die aktuelle Nachrichtenlast nicht bewältigen kann, indem man einen HTTP-Fehler zurückgibt.
|
Abo exportieren
Der Pub/Sub-Server implementiert automatisch eine Ablaufsteuerung, um das Schreiben von Nachrichten in eine Trusted Cloud -Ressource zu optimieren.
|
Effizienz und Durchsatz |
Pull-Abo
Erzielt hohen Durchsatz bei geringer CPU-Leistung und Bandbreite durch Unterstützung von Stapelzustellung, -Bestätigungen und Massenparallelverarbeitung. Ist möglicherweise ineffizient, wenn versucht wird, durch aggressiven Abruf die Nachrichtenzustellungszeit zu minimieren.
|
Push-Abo
Stellt eine Nachricht pro Anfrage zu und begrenzt die Höchstzahl der ausstehenden Nachrichten.
|
Abo exportieren
Die Skalierbarkeit wird dynamisch von Pub/Sub-Servern verwaltet.
|
Wann ist ein Exportabo sinnvoll?
Ohne Exportabo benötigen Sie ein Pull- oder Push-Abo und einen Abonnenten (z. B. Dataflow), um Nachrichten zu lesen und in eine Trusted Cloud Ressource zu schreiben.
Der Overhead beim Ausführen eines Dataflow-Jobs ist nicht erforderlich, wenn Nachrichten vor dem Speichern nicht zusätzlich verarbeitet werden müssen.
Abos können exportiert werden. Das hat folgende Vorteile:
Einfache Bereitstellung. Sie können ein Exportabo über einen einzelnen Workflow in der Console, der Trusted Cloud by S3NS CLI, der Clientbibliothek oder der Pub/Sub API einrichten.
Niedrige Kosten. Reduziert die zusätzlichen Kosten und die Latenz ähnlicher Pub/Sub-Pipelines, die Dataflow-Jobs enthalten.
Diese Kostenoptimierung eignet sich für Nachrichtensysteme, die vor dem Speichern nicht zusätzlich verarbeitet werden müssen.
Minimales Monitoring Exportabonnemente sind Teil des mehrmandantenfähigen Pub/Sub-Dienstes und erfordern keine separaten Monitoring-Jobs.
Flexibilität: Ein BigQuery-Abo kann das Schema des Themas verwenden, an das es angehängt ist. Das ist mit der grundlegenden Dataflow-Vorlage zum Schreiben von Pub/Sub nach BigQuery nicht möglich. Ebenso bietet ein Cloud Storage-Abo konfigurierbare Optionen für die Dateigruppierung basierend auf der Dateigröße und der verstrichenen Zeit. Diese Optionen sind in der grundlegenden Dataflow-Vorlage für das Schreiben von Pub/Sub nach Cloud Storage nicht konfigurierbar.
Für Pub/Sub-Systeme, bei denen eine gewisse Datentransformation erforderlich ist, bevor die Daten in einerTrusted Cloud Ressource wie einer BigQuery-Tabelle oder einem Cloud Storage-Bucket gespeichert werden, wird jedoch weiterhin eine Dataflow-Pipeline empfohlen.
Weitere Informationen zum Streamen von Daten aus Pub/Sub zu BigQuery mit Transformation mit Dataflow finden Sie unter Von Pub/Sub zu BigQuery streamen.
Informationen zum Streamen von Daten mit Dataflow von Pub/Sub nach Cloud Storage und zur Transformation der Daten finden Sie unter Nachrichten mit Dataflow aus Pub/Sub streamen.
Nächste Schritte
So funktioniert der Workflow für die einzelnen Abotypen:
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-08-17 (UTC).
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-17 (UTC)."],[],[],null,["# Choose a subscription type\n\nThis document helps you choose the appropriate type of Pub/Sub\nsubscription suited to your business requirements.\n\nBefore you begin\n----------------\n\n- Learn about [subscriptions](/pubsub/docs/subscription-overview).\n\nPub/Sub subscription comparison table\n-------------------------------------\n\nThe following table offers some guidance in choosing the appropriate delivery\nmechanism for your application:\n\nWhen to use an export subscription\n----------------------------------\n\nWithout an export subscription, you need a pull or push\nsubscription and a subscriber (such as Dataflow) to\nread messages and write them to a Google Cloud resource.\nThe overhead of running a Dataflow job is\nnot necessary when messages don't\nrequire additional processing before being stored.\n\nExport subscriptions have the following advantages:\n\n- **Simple deployment.** You can set up an export subscription through a\n single workflow in the console, Google Cloud CLI, client library,\n or Pub/Sub API.\n\n- **Low costs.** Reduces the additional cost and latency of similar\n Pub/Sub pipelines that include Dataflow jobs.\n This cost optimization is useful for messaging systems that don't require\n additional processing before storage.\n\n- **Minimal monitoring.** Export subscriptions are part of the multi-tenant\n Pub/Sub service and don't require you to run separate\n monitoring jobs.\n\n- **Flexibility**. A BigQuery subscription can use the\n schema of the topic to which it is attached, which is not available with\n the basic Dataflow template for writing from\n Pub/Sub to BigQuery. Similarly,\n a Cloud Storage subscription offers configurable file batching options\n based on file size and elapsed time, which are not configurable in the\n basic Dataflow template for writing from\n Pub/Sub to Cloud Storage.\n\nHowever, a Dataflow pipeline is still\nrecommended for Pub/Sub systems where some data\ntransformation is required before the data is stored in a\nGoogle Cloud resource such as a BigQuery table or\nCloud Storage bucket.\n\nTo learn how to stream data from Pub/Sub to\nBigQuery with transformation by using Dataflow,\nsee [Stream from Pub/Sub to BigQuery](/dataflow/docs/tutorials/dataflow-stream-to-bigquery).\n\nTo learn how to stream data from Pub/Sub to\nCloud Storage with transformation by using\nDataflow, see\n[Stream messages from Pub/Sub by using Dataflow](/pubsub/docs/stream-messages-dataflow).\n\nWhat's next\n-----------\n\nUnderstand the workflow for each subscription type:\n\n- [Pull](/pubsub/docs/pull)\n\n- [Push](/pubsub/docs/push)\n\n- [BigQuery](/pubsub/docs/bigquery)\n\n- [Cloud Storage](/pubsub/docs/cloudstorage)"]]