In diesem Dokument wird beschrieben, wie Sie eine Instanz einer virtuellen Maschine (VM) erstellen, die einen Maschinentyp aus den Maschinenreihen G2 oder G4 verwendet. Diese beschleunigeroptimierten Maschinentypen der G-Serie eignen sich gut für die Ausführung grafikintensiver Anwendungen und kostengünstiger Inferenz für maschinelles Lernen (ML).
Sie können diese VMs als On-Demand-VMs erstellen. Um Ihre Kosten zu senken, können Sie auch G2- und G4-Spot-VMs oder G2-Flex-Start-VMs erstellen. Weitere Informationen zum Erstellen von VMs mit angehängten GPUs finden Sie unter Übersicht zum Erstellen einer Instanz mit angehängten GPUs.
Für Arbeitslasten, die nicht die Ressourcen einer vollständigen GPU erfordern, können Sie zur Kostenoptimierung VMs mit angehängten fraktionierten GPUs (vGPUs) erstellen, damit mehrere Arbeitslasten auf eine einzelne physische GPU zugreifen können.
Wenn Sie mehrere G2- oder G4-VMs erstellen möchten, können Sie eine der folgenden Optionen verwenden:
- Verwaltete Instanzgruppen (MIGs): Für Arbeitslasten, die hohe Verfügbarkeit, Skalierbarkeit und automatische Reparaturen erfordern, können Sie eine MIG erstellen, die eine GPU-Instanzvorlage verwendet.
- Bulk-Erstellung von Instanzen: Wenn Sie eine große Anzahl unabhängiger Instanzen erstellen möchten, können Sie G2- und G4-VMs im Bulk erstellen.
Hinweis
- Informationen zu Einschränkungen und zusätzlichen erforderlichen Schritten zum Erstellen von Instanzen mit angehängten GPUs, z. B. zum Auswählen eines Betriebssystem-Images und zum Prüfen des GPU-Kontingents, finden Sie unter Übersicht zum Erstellen einer Instanz mit angehängten GPUs.
-
Richten Sie die Authentifizierung ein, falls Sie dies noch nicht getan haben.
Bei der Authentifizierung wird Ihre Identität für den Zugriff auf Cloud de Confiance by S3NS Dienste und APIs überprüft. Zur Ausführung von Code oder Beispielen aus einer lokalen Entwicklungsumgebung können Sie sich so bei Compute Engine authentifizieren:
Wählen Sie den Tab aus, der Ihrer geplanten Verwendung der Beispiele auf dieser Seite entspricht:
Console
Wenn Sie über die Cloud de Confiance Console auf Cloud de Confiance by S3NS Dienste und APIs zugreifen, müssen Sie die Authentifizierung nicht einrichten.
gcloud
-
Installieren Sie die Google Cloud CLI und melden Sie sich dann mit Ihrer föderierten Identität in der gcloud CLI an. Nach der Anmeldung initialisieren Sie die Google Cloud CLI mit dem folgenden Befehl:
gcloud init
-
- Legen Sie eine Standardregion und -zone fest.
REST
Wenn Sie die REST API-Beispiele auf dieser Seite in einer lokalen Entwicklungsumgebung verwenden möchten, verwenden Sie die Anmeldedaten, die Sie der gcloud CLI bereitstellen.
Installieren Sie die Google Cloud CLI und melden Sie sich dann mit Ihrer föderierten Identität in der gcloud CLI an.
Weitere Informationen finden Sie in der Dokumentation zur Cloud de Confiance -Authentifizierung unter Für die Verwendung von REST authentifizieren.
Erforderliche Rollen
Bitten Sie Ihren Administrator, Ihnen die IAM-Rolle Compute Instance Admin (v1) (roles/compute.instanceAdmin.v1) für das Projekt zu gewähren, um die Berechtigungen zu erhalten, die Sie für die Erstellung von VMs benötigen.
Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.
Diese vordefinierte Rolle enthält die Berechtigungen, die zum Erstellen von VMs erforderlich sind. Maximieren Sie den Abschnitt Erforderliche Berechtigungen, um die genau erforderlichen Berechtigungen anzuzeigen:
Erforderliche Berechtigungen
Folgende Berechtigungen sind zum Erstellen von VMs erforderlich:
compute.instances.createfür das Projekt-
Zum Erstellen der VM mit einem benutzerdefinierten Image:
compute.images.useReadOnlyfür das Image -
Zum Erstellen der VM mit einem Snapshot:
compute.snapshots.useReadOnlyfür den Snapshot -
Zum Erstellen der VM mit einer Instanzvorlage:
compute.instanceTemplates.useReadOnlyfür die Instanzvorlage -
Zum Angeben eines Subnetzes für Ihre VM:
compute.subnetworks.usefür das Projekt oder für das ausgewählte Subnetz -
Zum Festlegen einer statischen IP-Adresse für die VM:
compute.addresses.usefür das Projekt -
Zum Zuweisen einer externen IP-Adresse zur VM, wenn Sie ein VPC-Netzwerk verwenden:
compute.subnetworks.useExternalIpfür das Projekt oder für das ausgewählte Subnetz -
Zum Zuweisen eines Legacy-Netzwerks zur VM:
compute.networks.usefür das Projekt -
Zum Zuweisen einer externen IP-Adresse zur VM, wenn Sie ein Legacy-Netzwerk verwenden:
compute.networks.useExternalIpfür das Projekt -
Zum Festlegen von Metadaten der VM-Instanz für die VM:
compute.instances.setMetadatafür das Projekt -
Zum Festlegen von Tags für die VM:
compute.instances.setTagsfür die VM -
Zum Festlegen von Labels für die VM:
compute.instances.setLabelsfür die VM -
Zum Festlegen eines Dienstkontos für die VM:
compute.instances.setServiceAccountfür die VM -
Zum Erstellen eines neuen Laufwerks für die VM:
compute.disks.createfür das Projekt -
Zum Anhängen eines vorhandenen Laufwerks im Lese- oder Lese-/Schreibmodus:
compute.disks.usefür das Laufwerk -
Zum Anhängen eines vorhandenen Laufwerks im Lesemodus:
compute.disks.useReadOnlyfür das Laufwerk
Sie können diese Berechtigungen auch mit benutzerdefinierten Rollen oder anderen vordefinierten Rollen erhalten.
Instanz mit angehängten GPUs erstellen
Sie können eine beschleunigungsoptimierte G2- oder G4-Instanz mit der Cloud de Confiance Console, der Google Cloud CLI oder REST erstellen.
Console
Rufen Sie in der Cloud de Confiance Console die Seite Instanz erstellen auf.
Geben Sie im Feld Name einen eindeutigen Namen für die Instanz ein. Weitere Informationen finden Sie unter Konvention für Ressourcennamen.
Wählen Sie eine Region und Zone aus, in denen diese GPU-Maschinentypen verfügbar sind. Weitere Informationen finden Sie unter GPU-Regionen und -Zonen.
Wählen Sie im Bereich „Maschinentypen“ die Option GPUs aus.
Wählen Sie im Menü GPU-Typ den GPU-Typ.
- Wählen Sie für G2-Instanzen
NVIDIA L4aus. - Wählen Sie für G4-Instanzen
NVIDIA RTX PRO 6000aus.
- Wählen Sie für G2-Instanzen
Wählen Sie in der Liste Anzahl der GPUs die Anzahl der GPUs aus.
- Bei G4-Instanzen wird in der Konsole automatisch der entsprechende Maschinentyp basierend auf der Anzahl der ausgewählten GPUs ausgewählt.
Prüfen Sie bei G2-Instanzen Folgendes:
- Wenn Sie eine GPU auswählen, können Sie aus einer Reihe von Maschinentypen mit voreingestellten Mengen an vCPUs und Arbeitsspeicher wählen, die für Ihre Arbeitslasten geeignet sind.
- Wenn Sie zwei oder mehr GPUs auswählen, wird in der Console automatisch der entsprechende Maschinentyp basierend auf der Anzahl der ausgewählten GPUs ausgewählt.
Für G2-Instanzen können Sie auch benutzerdefinierte Maschinentypen angeben. Geben Sie die Anzahl der vCPUs und den Speicherplatz für die Instanz mithilfe der Schieberegler an, oder geben Sie die Werte in die Textfelder ein. In der Console wird eine Kostenschätzung für die Instanz angezeigt, wenn Sie die Anzahl der vCPUs und die Speichermenge ändern.
Optional: Die Maschinenreihen G2 und G4 unterstützen NVIDIA RTX Virtual Workstations (vWS) für Grafikarbeitslasten. Wenn Sie grafikintensive Arbeitslasten auf Ihrer Instanz ausführen möchten, wählen Sie Virtuelle Workstation (NVIDIA GRID) aktivieren aus.
Konfigurieren Sie das Bootlaufwerk so:
- Klicken Sie im Bereich Betriebssystem und Speicher auf Ändern. Dadurch wird die Seite Konfiguration des Bootlaufwerks geöffnet.
Führen Sie auf der Seite Bootlaufwerkkonfiguration die folgenden Schritte aus:
- Wählen Sie auf dem Tab Öffentliche Images ein unterstütztes Compute Engine-Image oder Deep Learning VM Images aus.
- Geben Sie eine Bootlaufwerkgröße von mindestens 40 GB an.
- Klicken Sie auf Auswählen, um die Bootlaufwerksoptionen zu bestätigen.
Optional: Fügen Sie lokale SSDs hinzu. Lokale SSDs können als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden. So fügen Sie Ihrer Instanz lokale SSDs hinzu:
- Klicken Sie im Bereich Betriebssystem und Speicher auf Lokale SSD hinzufügen.
- Wählen Sie für die Schnittstelle die Option NVMe aus.
- Wählen Sie unter Laufwerkskapazität die Anzahl der lokalen SSDs aus, die Sie anhängen möchten. Die maximale Anzahl lokaler SSD-Laufwerke pro Instanz finden Sie unter Grenzwerte für Maschinenserien für lokale SSDs.
Optional: Wenn Sie eine höhere Netzwerkbandbreite für Ihre
g4-standard-384-Instanzen benötigen, konfigurieren Sie mehrere Netzwerkschnittstellen. Sie können bis zu zwei Netzwerkschnittstellen konfigurieren. Mit dieser Konfiguration wird eineg4-standard-384-Instanz mit zwei Netzwerkschnittstellen (2‑mal 200 Gbit/s) erstellt. Führen Sie im Abschnitt Netzwerk die folgenden Schritte aus:- Maximieren Sie die Standardnetzwerkschnittstelle.
- Geben Sie das Netzwerk und das Subnetzwerk für die erste Schnittstelle an.
- Wählen Sie für Netzwerkkarte die Option gVNIC aus.
Klicken Sie auf Netzwerkschnittstelle hinzufügen, um die zweite Schnittstelle hinzuzufügen. Konfigurieren Sie die zweite Netzwerkschnittstelle so:
- Wählen Sie ein anderes VPC-Netzwerk und Subnetzwerk aus. Jede Netzwerkschnittstelle muss sich in einem eindeutigen VPC-Netzwerk befinden.
- Wählen Sie für Netzwerkkarte die Option gVNIC aus.
Optional: Konfigurieren Sie ein anderes Bereitstellungsmodell, um Ihre Kosten zu senken. Wählen Sie im Abschnitt Erweiterte Optionen unter VM-Bereitstellungsmodell eine der folgenden Optionen aus:
(Nur G2) Flex-Start: für Arbeitslasten mit kurzer Ausführungsdauer, die eine flexible Startzeit tolerieren. Weitere Informationen finden Sie unter Flex-Start-VMs.
Spot: für fehlertolerante Arbeitslasten, die vorzeitig beendet werden können. Weitere Informationen finden Sie unter Spot-VMs.
Optional: Wählen Sie in der Liste Beim Beenden der VM aus, was passieren soll, wenn Compute Engine die Spot-VMs vorzeitig beendet oder die Flex-Start-VMs das Ende ihrer Laufzeit erreichen:
- Wählen Sie Beenden (Standardeinstellung) aus, um die VM während des vorzeitigen Beendens zu beenden.
- Wählen Sie Löschen aus, um die VM während des vorzeitigen Beendens zu löschen.
Klicken Sie zum Erstellen und Starten der VM auf Erstellen.
gcloud
Verwenden Sie zum Erstellen und Starten einer Instanz den Befehl gcloud compute instances create. Der folgende Befehl enthält die erforderlichen Flags.
gcloud compute instances create VM_NAME \
--machine-type=MACHINE_TYPE \
--zone=ZONE \
--boot-disk-size=DISK_SIZE \
--image=IMAGE \
--image-project=IMAGE_PROJECT \
--maintenance-policy=TERMINATE \
--restart-on-failure
Ersetzen Sie Folgendes:
VM_NAME: Der Name der neuen Instanz.MACHINE_TYPE: der ausgewählte Maschinentyp. Wählen Sie eine der folgenden Optionen aus:- Ein G4-Maschinentyp.
- Ein G2-Maschinentyp.
G2-Maschinentypen unterstützen auch benutzerdefinierten Arbeitsspeicher. Der Arbeitsspeicher muss ein Vielfaches von 1.024 MB sein und innerhalb des unterstützten Arbeitsspeicherbereichs liegen. Geben Sie beispielsweise
--machine-type=g2-custom-4-19456an, um eine Instanz mit 4 vCPUs und 19 GB Arbeitsspeicher zu erstellen.
ZONE: Die Zone für die Instanz. Die Zone muss das ausgewählte GPU-Modell unterstützen.DISK_SIZE: Die Größe des Bootlaufwerks in GB. Geben Sie eine Bootlaufwerkgröße von mindestens 40 GB an.IMAGE: Ein Betriebssystem-Image, das GPUs unterstützt. Wenn Sie das neueste Image in einer Image-Familie verwenden möchten, ersetzen Sie das Flag--imagedurch das Flag--image-familyund legen Sie dessen Wert auf eine Image-Familie fest, die GPUs unterstützt. Beispiel:--image-family=rocky-linux-8-optimized-gcp.
Sie können auch ein benutzerdefiniertes Image oder Deep Learning VM Images angeben.IMAGE_PROJECT: Das Compute Engine-Image-Projekt, zu dem das Betriebssystem-Image gehört. Wenn Sie ein benutzerdefiniertes Image oder Deep Learning VM Images verwenden, geben Sie das Projekt an, zu dem diese Images gehören.
Optionale Flags
Wenn Sie Ihre Instanz weiter konfigurieren möchten, um die Anforderungen Ihrer Arbeitslast oder Ihres Betriebssystems zu erfüllen, fügen Sie beim Ausführen des gcloud compute instances create-Befehls ein oder mehrere der folgenden Flags ein.
| Funktion | Beschreibung |
|---|---|
| Bereitstellungsmodell | Legt das Bereitstellungsmodell für die Instanz fest. Sie können STANDARD, SPOT oder FLEX_START angeben. Wenn Sie FLEX_START angeben, müssen Sie zusätzliche Flags im Befehl zum Erstellen der Instanz angeben. Wenn Sie kein Bereitstellungsmodell angeben, legt Compute Engine den Wert auf STANDARD fest. Weitere Informationen finden Sie unter Bereitstellungsmodelle für Compute Engine-Instanzen.
--provisioning-model=PROVISIONING_MODEL |
| Virtuelle Workstation | Gibt NVIDIA RTX Virtual Workstations (vWS) für Grafikarbeitslasten an.
--accelerator=type=VWS_ACCELERATOR_TYPE,count=VWS_ACCELERATOR_COUNT Ersetzen Sie Folgendes:
|
| Lokale SSD | Hängt Ihrer Instanz eine oder mehrere lokale SSDs an. Lokale SSDs können als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
--local-ssd=interface=nvme \
--local-ssd=interface=nvme \
--local-ssd=interface=nvme ... |
| Netzwerkschnittstelle | Hängt mehrere Netzwerkschnittstellen an Ihre Instanz an. Für g4-standard-384-Instanzen können Sie bis zu zwei Netzwerkschnittstellen anhängen. Mit diesem Flag können Sie eine Instanz mit zwei Netzwerkschnittstellen (2 × 200 Gbit/s) erstellen. Jede Netzwerkschnittstelle muss sich in einem eindeutigen VPC-Netzwerk befinden.
--network-interface=network=VPC_NAME_1,subnet=SUBNET_NAME_1,nic-type=GVNIC \ --network-interface=network=VPC_NAME_2,subnet=SUBNET_NAME_2,nic-type=GVNIC Duale Netzwerkschnittstellen werden nur auf Ersetzen Sie Folgendes:
|
| Platzierungsrichtlinie | Steuert die Platzierung Ihrer Instanz in einer Zone. Sie können eine kompakte Richtlinie angeben, um die Netzwerklatenz zwischen Ihren G2-Instanzen zu minimieren, oder eine Richtlinie für die Verteilung, um die Ausfallsicherheit Ihrer G4- oder G2-Instanzen bei zonenspezifischen Störungen zu verbessern.
--resource-policies=POLICY_NAME Ersetzen Sie |
REST
Senden Sie eine POST-Anfrage an die Methode instances.insert.
Da Instanzen mit GPUs nicht live migriert werden können, setzen Sie das Feld onHostMaintenance auf TERMINATE. Die folgende Methode enthält die erforderlichen Felder für den Anfragetext.
POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances
{
"machineType":"projects/PROJECT_ID/zones/ZONE/machineTypes/MACHINE_TYPE",
"disks":[
{
"type":"projects/PROJECT_ID/zones/ZONE/diskTypes/hyperdisk-balanced",
"initializeParams":{
"diskSizeGb":"DISK_SIZE",
"sourceImage":"SOURCE_IMAGE_URI"
},
"boot":true
}
],
"name":"VM_NAME",
"networkInterfaces":[
{
"network":"projects/PROJECT_ID/global/networks/default"
}
],
"scheduling":{
"onHostMaintenance": "TERMINATE",
"automaticRestart": true
}
}
Ersetzen Sie Folgendes:
VM_NAME: Der Name der neuen Instanz.PROJECT_ID: die Projekt-ID.ZONE: Die Zone für die Instanz. Diese Zone muss das ausgewählte GPU-Modell unterstützen.MACHINE_TYPE: der ausgewählte Maschinentyp. Wählen Sie eine der folgenden Optionen aus:- Ein G4-Maschinentyp.
- Ein G2-Maschinentyp.
G2-Maschinentypen unterstützen auch benutzerdefinierten Arbeitsspeicher. Der Arbeitsspeicher muss ein Vielfaches von 1.024 MB sein und innerhalb des unterstützten Arbeitsspeicherbereichs liegen. Der Maschinentypname für eine Instanz mit 4 vCPUs und 19 GB Arbeitsspeicher wäre beispielsweise
g2-custom-4-19456.
SOURCE_IMAGE_URI: der URI für das spezifische Image oder die Image-Familie, die Sie verwenden möchten. Beispiel:- Spezifisches Image:
"sourceImage": "projects/rocky-linux-cloud/global/images/rocky-linux-8-optimized-gcp-v20220719" - Image-Familie:
"sourceImage": "projects/rocky-linux-cloud/global/images/family/rocky-linux-8-optimized-gcp"
- Spezifisches Image:
DISK_SIZE: Die Größe des Bootlaufwerks in GB. Geben Sie eine Bootlaufwerkgröße von mindestens 40 GB an.
Optionale Felder
Wenn Sie Ihre Instanz weiter konfigurieren möchten, um die Anforderungen Ihrer Arbeitslast oder Ihres Betriebssystems zu erfüllen, fügen Sie beim Ausführen der Methode instances.insert ein oder mehrere der folgenden Flags ein.
| Funktion | Beschreibung |
|---|---|
| Bereitstellungsmodell | Um Ihre Kosten zu senken, können Sie ein anderes Bereitstellungsmodell angeben, indem Sie das Feld "provisioningModel": "PROVISIONING_MODEL" dem Objekt scheduling in Ihrer Anfrage hinzufügen. Weitere Informationen finden Sie unter Bereitstellungsmodelle für Compute Engine-Instanzen.
"scheduling":
{
"onHostMaintenance": "TERMINATE",
"provisioningModel": "PROVISIONING_MODEL"
}
Ersetzen Sie
|
| Virtuelle Workstation | Gibt NVIDIA RTX Virtual Workstations (vWS) für Grafikarbeitslasten an.
"guestAccelerators":
[
{
"acceleratorCount": VWS_ACCELERATOR_COUNT,
"acceleratorType": "projects/PROJECT_ID/zones/ZONE/acceleratorTypes/VWS_ACCELERATOR_TYPE"
}
]
Ersetzen Sie Folgendes:
|
| Lokale SSD | Hängt Ihrer Instanz eine oder mehrere lokale SSDs an. Lokale SSDs können als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
{
"type": "SCRATCH",
"autoDelete": true,
"initializeParams": {
"diskType": "projects/PROJECT_ID/zones/ZONE/diskTypes/local-nvme-ssd"
}
}
|
| Netzwerkschnittstelle | Hängt mehrere Netzwerkschnittstellen an Ihre Instanz an. Für g4-standard-384-Instanzen können Sie bis zu zwei Netzwerkschnittstellen anhängen. So wird eine Instanz mit zwei Netzwerkschnittstellen (2 × 200 Gbit/s) erstellt. Jede Netzwerkschnittstelle muss sich in einem eindeutigen VPC-Netzwerk befinden.
"networkInterfaces":
[
{
"network": "projects/PROJECT_ID/global/networks/VPC_NAME_1",
"subnetwork": "projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME_1",
"nicType": "GVNIC"
},
{
"network": "projects/PROJECT_ID/global/networks/VPC_NAME_2",
"subnetwork": "projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME_2",
"nicType": "GVNIC"
}
]
Duale Netzwerkschnittstellen werden nur auf Ersetzen Sie Folgendes:
|
| Platzierungsrichtlinie | Steuert die Platzierung Ihrer Instanz in einer Zone. Sie können eine kompakte Richtlinie angeben, um die Netzwerklatenz zwischen Ihren G2-Instanzen zu minimieren, oder eine Richtlinie für die Verteilung, um die Ausfallsicherheit Ihrer G4- oder G2-Instanzen bei zonenspezifischen Störungen zu verbessern.
"resourcePolicies": [
"projects/PROJECT_ID/regions/REGION/resourcePolicies/POLICY_NAME"
]
Ersetzen Sie Folgendes:
|
Treiber installieren
Nachdem Sie die Instanz erstellt haben, müssen Sie einen Treiber installieren, damit die GPU verwendet werden kann. Welchen Treiber Sie installieren müssen, hängt davon ab, ob Sie beim Erstellen der Instanz eine virtuelle NVIDIA RTX-Workstation (vWS) für Grafikarbeitslasten aktiviert haben.
- Wenn Sie keine virtuelle Workstation aktiviert haben, installieren Sie den GPU-Treiber auf Ihrer VM.
- Wenn Sie eine virtuelle Workstation aktiviert haben, installieren Sie einen Treiber für die virtuelle Workstation.
vGPU-Treiber für Fractional-GPUs installieren
Bei G4-Instanzen, an die weniger als eine GPU angehängt ist, müssen Sie nach dem Erstellen der Instanz einen bestimmten vGPU-Treiber darauf installieren, der eine Verbindung zum Hosttreiber der physischen Maschine herstellt. Eine Anleitung finden Sie unter vGPU-Treiber installieren (fraktionierte VMs).
(Optional) GPU-Modus für mehrere Instanzen (nur G4)
Der MIG-Modus (Multi-Instance GPU) ist eine Funktion, die Sie auf einer unterstützten NVIDIA-GPU aktivieren können.
Nachdem Sie eine G4-Instanz erstellt haben, können Sie den MIG-Modus (Multi-Instance GPU) auf einer einzelnen NVIDIA RTX PRO 6000-GPU aktivieren, die an Ihre Maschine angehängt ist. Wenn der MIG-Modus aktiviert ist, wird die einzelne GPU in bis zu sieben unabhängige GPU-Instanzen partitioniert. Jede Instanz wird gleichzeitig ausgeführt und verfügt über einen eigenen Arbeitsspeicher, Cache und eigene Streaming-Multiprozessoren. Anschließend können Sie verschiedene Arbeitslasten parallel auf diesen GPU-Instanzen ausführen. Das unterscheidet sich von der Verwendung von G4-Maschinentypen mit angehängten fraktionierten GPUs, bei denen sich mehrere Arbeitslasten den Zugriff auf eine einzelne physische GPU über die fraktionierte (vGPU-)Partitionierung teilen.
Weitere Informationen zur Verwendung von Multi-Instanz-GPUs finden Sie in der NVIDIA-Dokumentation unter Erste Schritte mit MIG.
Nächste Schritte
- Weitere Informationen zu GPU-Plattformen
- Informationen zur Handhabung der GPU-Hostwartung finden Sie unter GPU-Hostwartungsereignisse verarbeiten