Die Beschleunigeroptimierte Maschinenfamilie wurde von Google Cloud entwickelt, um die erforderliche Leistung und Effizienz für GPU-beschleunigte Arbeitslasten wie künstliche Intelligenz (KI), maschinelles Lernen (ML) und Hochleistungs-Computing zu bieten. Trusted Cloud by S3NS
Die beschleunigungsoptimierte Maschinenfamilie ist in den folgenden Maschinenreihen verfügbar: A4X, A4, A3, A2 und G2. Jeder Maschinentyp innerhalb einer Reihe hat ein bestimmtes Modell und eine bestimmte Anzahl von NVIDIA-GPUs angehängt. Sie können auch einige GPU-Modelle an N1-Maschinentypen für allgemeine Zweckeall anhängen.
Empfehlung der Maschinenserie nach Arbeitslasttyp
Im folgenden Abschnitt finden Sie die empfohlene Maschinenreihe basierend auf Ihren GPU-Arbeitslasten.
Arbeitslasttyp | Empfohlener Maschinentyp |
---|---|
Vortrainierte Modelle | A4X, A4, A3 Ultra, A3 Mega, A3 High und A2 Informationen zur Auswahl des am besten geeigneten Modells finden Sie in der Dokumentation zum KI-Hypercomputer unter Empfehlungen für das Vortraining von Modellen. |
Modelle optimieren | A4X, A4, A3 Ultra, A3 Mega, A3 High und A2 Informationen zum Ermitteln des besten Modells finden Sie in der Dokumentation zum AI Hypercomputer unter Empfehlungen zur Feinabstimmung von Modellen. |
Inferenz bei der Auslieferung | A4X, A4, A3 Ultra, A3 Mega, A3 High, A3 Edge und A2 Informationen zur Auswahl des am besten geeigneten Modells finden Sie in der AI Hypercomputer-Dokumentation unter Empfehlungen für die Bereitstellung von Inferenzen. |
Grafikintensive Arbeitslasten | G2 und N1+T4 |
Hochleistungs-Computing | Für Hochleistungs-Computing-Arbeitslasten eignet sich jede beschleunigungsoptimierte Maschinenreihe. Die beste Lösung hängt davon ab, wie viel Rechenaufwand an die GPU ausgelagert werden muss. Weitere Informationen finden Sie in der Dokumentation zu AI Hypercomputer unter Empfehlungen für HPC. |
Preis- und Bereitstellungsoptionen
Für die beschleunigungsoptimierten Maschinentypen werden die angeschlossenen GPUs, die vordefinierte vCPU, der Arbeitsspeicher und der lokale SSD-Speicher (sofern vorhanden) in Rechnung gestellt. Die Rabatte, die für accelerator-optimierte Instanzen gelten können, variieren je nach der von Ihnen verwendeten Bereitstellungsoption, wie in der folgenden Tabelle zusammengefasst. Weitere Informationen zu den Preisen für beschleunigungsoptimierte Instanzen finden Sie auf der Seite „Preise für VM-Instanzen“ im Abschnitt Beschleunigungsoptimierte Maschinentypfamilie.
On-Demand (Standard) | Spot-VMs | Flex-Start (Vorabversion) | Reservierungen | |
---|---|---|---|---|
Unterstützte beschleunigungsoptimierte Maschinenserien | A3 Mega, A3 High, A3 Edge, A2 und G2 | A4, A3, A2 und G2 | A4, A3, A2 und G2 | Die Unterstützung variiert je nach Art der Reservierung:
|
Rabatte | Sie können für einige Ressourcen Rabatte für zugesicherte Nutzung erhalten, indem Sie ressourcenbasierte Zusicherungen erwerben. GPUs und lokale SSDs, die Sie mit der Option zur On-Demand-Bereitstellung verwenden, kommen jedoch nicht für Rabatte für zugesicherte Nutzung infrage. Wenn Sie CUDs auch für GPUs und lokale SSDs erhalten möchten, empfehlen wir stattdessen die Option zur Reservierungsbereitstellung. |
Spot-VMs erhalten automatisch Rabatte durch die Preise für Spot-VMs. |
Für VMs, die mit dem Bereitstellungsmodell „Flex-Start“ bereitgestellt werden, erhalten Sie automatisch Rabatte durch die Dynamic Workload Scheduler-Preise. |
Sie können CUDs für die Ressourcen Ihres beschleunigungsoptimierten Maschinentyps erhalten, indem Sie ressourcenbasierte Zusicherungen erwerben. Für Zusicherungen für GPUs und lokale SSDs ist es erforderlich, dass Sie Reservierungen für diese Ressourcen anhängen. |
Die A4X-Maschinenserie
Die A4X-Maschinenreihe wird auf einer Exascale-Plattform mit NVIDIA GB200 NVL72-Architektur auf Rackebene ausgeführt und hat bis zu 140 vCPUs und 884 GB Arbeitsspeicher. Diese Maschinenreihe ist für rechen- und speicherintensive, netzwerkgebundene ML-Trainings und HPC-Arbeitslasten optimiert. Die A4X-Maschinenserie ist in einem einzigen Maschinentyp verfügbar.
VM-Instanzen, die mit dem A4X-Maschinentyp erstellt wurden, bieten folgende Funktionen:
GPU-Beschleunigung mit NVIDIA GB200-Superchips: An A4X-Instanzen sind automatisch NVIDIA GB200-Superchips angehängt. Diese Superchips haben NVIDIA B200-GPUs und bieten 180 GB Arbeitsspeicher pro GPU. A4X hat zwei Sockets mit NVIDIA Grace™-CPUs mit Arm® Neoverse™ V2-Kernen. Diese CPUs sind über eine schnelle Chip-zu-Chip-Kommunikation (NVLink-C2C) mit vier B200-GPUs verbunden.
NVIDIA Grace-CPU-Plattform: A4X-Instanzen verwenden die NVIDIA Grace-CPU-Plattform. Weitere Informationen zur Plattform finden Sie unter CPU-Plattformen.
Branchenführende NVLink-Skalierung: NVLink mit mehreren Knoten, der bis zu 72 GPUs in einer einzigen Domain skaliert. NVIDIA B200-GPUs bieten eine bidirektionale GPU-NVLink-Bandbreite von 1.800 GB/s pro GPU. Bei einer All-to-All-NVLink-Topologie zwischen 4 GPUs in einem System beträgt die NVLink-Gesamtbandbreite bis zu 130 Terabyte pro Sekunde.
Erweitertes Netzwerk mit RoCE: Bei A4X-Instanzen wird die Netzwerkleistung durch RDMA over Converged Ethernet (RoCE) erhöht, indem NVIDIA ConnectX-7 (CX-7)-Netzwerkschnittstellenkarten (NICs) mit dem datacenterweiten, viergleisigen, an der Schiene ausgerichteten Netzwerk von Google kombiniert werden. Durch die Nutzung von RDMA over Converged Ethernet (RoCE) erreichen die A4X-Instanzen im Vergleich zu A4-Instanzen einen viel höheren Durchsatz zwischen Instanzen in einem Cluster.
Die CX-7-NICs, die physisch in einer viergleisigen, an der Schiene ausgerichteten Netzwerktopologie isoliert sind, ermöglichen es, A4X-Instanzen in Gruppen von 72 GPUs auf bis zu Tausende von GPUs in einem einzigen nicht blockierenden Cluster zu skalieren.
Höhere Netzwerkgeschwindigkeiten: Bietet eine bis zu viermal höhere Netzwerkgeschwindigkeit als Instanzen, die mit den A3-Maschinentypen erstellt wurden.
Optimierungen bei der Virtualisierung für Datenübertragungen und ‑wiederherstellung: Die PCIe-Topologie (Peripheral Component Interconnect Express) von A4X-Instanzen liefert genauere Informationen zur Lokalität, mit denen Arbeitslasten die Datenübertragungen optimieren können.
Die GPUs bieten außerdem einen Funktionsebenen-Reset (FLR) für eine reibungslose Fehlerwiederherstellung und Unterstützung für atomare Vorgänge zur Verbesserung der Nebenläufigkeit in bestimmten Szenarien.
Unterstützung für lokale SSDs und Hyperdisks: A4X-Instanzen werden automatisch 12.000 GiB an lokalem SSD-Speicher hinzugefügt. Dies kann als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
Für Anwendungen, die eine höhere Speicherleistung erfordern, können Sie A4X-Instanzen bis zu 512 TiB Hyperdisk zuweisen.
Unterstützung für eine dichte Zuordnung und topologiebewusste Planung: Wenn Sie A4X-Instanzen über Cluster Director bereitstellen, können Sie Blöcke mit dicht zugewiesener Kapazität anfordern. Ihre Hostcomputer werden physisch nah beieinander platziert, als Ressourcenblöcke bereitgestellt und über ein dynamisches ML-Netzwerkgewebe miteinander verbunden, um Netzwerksprünge zu minimieren und die Latenz so niedrig wie möglich zu halten. Darüber hinaus bietet Cluster Director Topologieinformationen auf Knoten- und Clusterebene, die für die Jobplatzierung verwendet werden können.
A4X-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Speicher* (GB HBM3e) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen NICs | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a4x-highgpu-4g |
4 | 720 | 140 | 884 | 12.000 | 6 | 2.000 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A4X
- Sie können Kapazität nur mit den unterstützten Bereitstellungsoptionen für einen A4X-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für die zugesicherte Nutzung für VMs, die A4X-Maschinentypen verwenden.
- Sie können den A4X-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können nichtflüchtige Speicher (regional oder zonal) nicht auf einer VM verwenden, die einen A4X-Maschinentyp verwendet.
- Der A4X-Maschinentyp ist nur auf der NVIDIA Grace-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A4X-Maschinentyp ändern. Sie können nur neue A4X-VMs erstellen. Nachdem Sie eine VM mit einem A4X-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- Sie können Windows-Betriebssysteme nicht auf einem A4X-Maschinentyp ausführen.
- A4X-VMs unterstützen Folgendes nicht:
Unterstützte Laufwerktypen für die A4X-Reihe
A4X-VMs können folgende Blockspeichertypen verwenden:
- Hyperdisk Balanced (
hyperdisk-balanced
): Dies ist der einzige Laufwerktyp, der für das Bootlaufwerk unterstützt wird. - Hyperdisk Extrem (
hyperdisk-extreme
) - Lokale SSD: Wird VMs, die mit einem der A4X-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | ||||||
---|---|---|---|---|---|---|
Maschinentypen | Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Verbundene lokale SSD |
a4x-highgpu-4g |
128 | 128 | – | – | 8 | 32 |
* Die Nutzung von Hyperdisk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Preise für Hyperdisk.
† Dieses Limit gilt für Hyperdisk, nicht jedoch für lokale SSDs.
Laufwerks- und Kapazitätslimits
Sie können eine Mischung aus verschiedenen Hyperdisk-Typen mit einer VM verwenden. Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs: 257 TiB für alle Hyperdisk
Für Maschinentypen mit 32 vCPUs oder mehr: 512 TiB für alle Hyperdisk
Weitere Informationen zu den Kapazitätslimits finden Sie unter Größen- und Anhangslimits für Hyperdisk.
Die A4-Maschinenserie
Die A4-Maschinenreihe bietet Maschinentypen mit bis zu 224 vCPUs und 3.968 GB Arbeitsspeicher. A4-Instanzen bieten bei den meisten GPU-beschleunigten Arbeitslasten eine bis zu dreimal höhere Leistung als die vorherigen GPU-Instanzentypen. A4 wird für ML-Trainingslasten empfohlen, insbesondere in großem Maßstab – z. B. mit Hunderten oder Tausenden von GPUs. Die A4-Maschinenreihe ist in einem einzigen Maschinentyp verfügbar.
VM-Instanzen, die mit dem A4-Maschinentyp erstellt wurden, bieten folgende Funktionen:
GPU-Beschleunigung mit NVIDIA B200-GPUs: NVIDIA B200-GPUs werden automatisch an A4-Instanzen angehängt, die 180 GB GPU-Speicher pro GPU bieten.
Skalierbarer Intel Xeon-Prozessor der 5.Generation (Emerald Rapids): bietet eine kontinuierliche Turbofrequenz für einen einzelnen Kern von bis zu 4,0 GHz. Weitere Informationen zu diesem Prozessor finden Sie unter CPU-Plattform.
Branchenführende NVLink-Skalierung: NVIDIA B200-GPUs bieten eine GPU-NVLink-Bandbreite von 1.800 Gbit/s bidirektional pro GPU.
Bei einer All-to-All-NVLink-Topologie zwischen 8 GPUs in einem System beträgt die NVLink-Gesamtbandbreite bis zu 14, 4 Terabyte pro Sekunde.
Erweitertes Netzwerk mit RoCE: RDMA over Converged Ethernet (RoCE) erhöht die Netzwerkleistung, indem NVIDIA ConnectX-7-Netzwerkschnittstellenkarten (NICs) mit dem datacenterweiten, viergleisigen, an der Schiene ausgerichteten Netzwerk von Google kombiniert werden. Durch die Nutzung von RDMA over Converged Ethernet (RoCE) erzielen A4-Instanzen einen viel höheren Durchsatz zwischen Instanzen in einem Cluster als die meisten A3-Instanzen, mit Ausnahme derjenigen, die auf dem A3 Ultra-Maschinentyp ausgeführt werden.
Höhere Netzwerkgeschwindigkeiten: Im Vergleich zu A2-Instanzen der vorherigen Generation bietet die A2 (Nvidia) bis zu viermal höhere Netzwerkgeschwindigkeiten.
Weitere Informationen zu Netzwerken finden Sie unter Netzwerkbandbreiten und GPUs.
Optimierungen bei der Virtualisierung für Datenübertragungen und ‑wiederherstellung: Die PCIe-Topologie (Peripheral Component Interconnect Express) von A4-Instanzen liefert genauere Informationen zur Lokalität, mit denen Arbeitslasten die Datenübertragungen optimieren können.
Die GPUs bieten außerdem einen Funktionsebenen-Reset (FLR) für eine reibungslose Fehlerwiederherstellung und Unterstützung für atomare Vorgänge zur Verbesserung der Nebenläufigkeit in bestimmten Szenarien.
Unterstützung für lokale SSDs und Hyperdisk: A4-Instanzen werden automatisch 12.000 GiB an lokalen SSDs hinzugefügt. Dies kann als schnelle Scratch Disk oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
Für Anwendungen, die eine höhere Speicherleistung erfordern, können Sie A4-Instanzen auch bis zu 512 TiB Hyperdisk zuordnen.
Unterstützung für die dichte Zuweisung und topologiebewusste Planung: Wenn Sie A4-Instanzen bereitstellen, die die Funktionen und Dienste von Cluster Director nutzen, können Sie Blöcke mit dicht zugewiesener Kapazität anfordern. Ihre Hostcomputer werden physisch nahe beieinander platziert, als Ressourcenblöcke bereitgestellt und über ein dynamisches ML-Netzwerkgewebe miteinander verbunden, um Netzwerkhops zu minimieren und die Latenz zu optimieren. Außerdem können Sie Topologieinformationen auf Knoten- und Clusterebene abrufen, die für die Jobplatzierung verwendet werden können.
A4-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Speicher* (GB HBM3e) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen NICs | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a4-highgpu-8g |
8 | 1.440 | 224 | 3.968 | 12.000 | 10 | 3.600 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A4
- Sie können Kapazität nur über die unterstützten Bereitstellungsoptionen für einen A4-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für die zugesicherte Nutzung für VMs, die A4-Maschinentypen verwenden.
- Sie können den A4-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können nichtflüchtige Speicher (regional oder zonal) nicht auf einer VM verwenden, die einen A4-Maschinentyp verwendet.
- Der A4-Maschinentyp ist nur auf der Emerald Rapids-CPU-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A4-Maschinentyp ändern. Sie können nur neue A4-VMs erstellen. Nachdem Sie eine VM mit einem A4-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- A4-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf einem A4-Maschinentyp ausführen.
Unterstützte Laufwerktypen für die A4-Reihe
A4-VMs können folgende Blockspeichertypen verwenden:
- Hyperdisk Balanced (
hyperdisk-balanced
): Dies ist der einzige Laufwerktyp, der für das Bootlaufwerk unterstützt wird. - Hyperdisk Extrem (
hyperdisk-extreme
) - Lokale SSD: Wird VMs, die mit einem der A4-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | ||||||
---|---|---|---|---|---|---|
Maschinentypen | Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Verbundene lokale SSD |
a4-highgpu-8g |
128 | 128 | – | – | 8 | 32 |
* Die Nutzung von Hyperdisk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Preise für Hyperdisk.
† Dieses Limit gilt für Hyperdisk, nicht jedoch für lokale SSDs.
Laufwerks- und Kapazitätslimits
Sofern vom Maschinentyp unterstützt, können Sie eine Mischung aus Hyperdisk- und Persistent Disk-Volumes auf einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen:
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle Persistent Disk-Volumes
Weitere Informationen zu den Kapazitätslimits finden Sie unter Größen- und Anhangslimits für Hyperdisks und Maximale Kapazität von Persistent Disk.
Die A3-Maschinenreihe
Die A3-Maschinenreihe hat bis zu 224 vCPUs und 2.944 GB Arbeitsspeicher. Diese Maschinenreihe ist für rechen- und speicherintensive, netzwerkgebundene ML-Trainings und HPC-Arbeitslasten optimiert. Die A3-Maschinenreihe ist in den Maschinentypen A3 Ultra, A3 Mega, A3 High und A3 Edge verfügbar.
VM-Instanzen, die mit den A3-Maschinentypen erstellt wurden, bieten folgende Funktionen:
Funktion | A3 Ultra | A3 Mega, High, Edge |
---|---|---|
GPU-Beschleunigung | NVIDIA H200 SXM-GPUs, die 141 GB GPU-Speicher pro GPU bieten und einen größeren und schnelleren Arbeitsspeicher für die Unterstützung großer Sprachmodelle und HPC-Arbeitslasten bereitstellen. |
NVIDIA H100 SXM-GPUs, die 80 GB GPU-Speicher pro GPU bieten und ideal für große transformerbasierte Sprachmodelle, Datenbanken und HPC geeignet sind. |
Skalierbare Intel Xeon-Prozessoren | skalierbaren Intel Xeon-Prozessor der 5.Generation (Emerald Rapids) und bietet eine kontinuierliche maximale Turbofrequenz pro Kern von bis zu 4,0 GHz. Weitere Informationen zu diesem Prozessor finden Sie unter CPU-Plattform. |
skalierbaren Intel Xeon-Prozessor der 4.Generation (Sapphire Rapids) und bietet eine kontinuierliche maximale Turbofrequenz für einen einzelnen Kern von bis zu 3,3 GHz. Weitere Informationen zu diesem Prozessor finden Sie unter CPU-Plattform. |
Branchenführende NVLink-Skalierung | NVIDIA H200-GPUs bieten eine maximale GPU-NVLink-Bandbreite von 900 GB/s in einer Richtung. Bei einer All-to-All-NVLink-Topologie zwischen 8 GPUs in einem System beträgt die NVLink-Gesamtbandbreite bis zu 7, 2 Terabyte pro Sekunde. |
NVIDIA H100-GPUs bieten eine maximale GPU-NVLink-Bandbreite von 450 GB/s in einer Richtung. Bei einer All-to-All-NVLink-Topologie zwischen 8 GPUs in einem System beträgt die NVLink-Gesamtbandbreite bis zu 7, 2 Terabyte pro Sekunde. |
Erweiterte Netzwerkeinstellungen | Bei diesem Maschinentyp wird die Netzwerkleistung durch RDMA over Converged Ethernet (RoCE) erhöht, indem NVIDIA ConnectX-7-Netzwerkschnittstellenkarten (NICs) mit unserem rechenzentrumsweiten, viergleisigen, an der Schiene ausgerichteten Netzwerk kombiniert werden. Durch die Nutzung von RDMA over Converged Ethernet (RoCE) erreicht der a3-ultragpu-8g -Maschinentyp einen viel höheren Durchsatz zwischen Instanzen in einem Cluster als andere A3-Maschinentypen.
|
|
Verbesserte Netzwerkgeschwindigkeiten | Bietet im Vergleich zur A2-Maschinenserie der vorherigen Generation eine bis zu viermal höhere Netzwerkgeschwindigkeit. Weitere Informationen zu Netzwerken finden Sie unter Netzwerkbandbreiten und GPUs. |
Bietet im Vergleich zur A2-Maschinenreihe der vorherigen Generation eine bis zu 2,5-mal höhere Netzwerkgeschwindigkeit. Weitere Informationen zu Netzwerken finden Sie unter Netzwerkbandbreiten und GPUs. |
Virtualisierungsoptimierungen | Die PCIe-Topologie (Peripheral Component Interconnect Express) von A3-Instanzen liefert genauere Informationen zur Lokalität, mit denen Arbeitslasten die Datenübertragungen optimieren können. Die GPUs bieten außerdem einen Funktionsebenen-Reset (FLR) für eine reibungslose Fehlerwiederherstellung und Unterstützung für atomare Vorgänge zur Verbesserung der Nebenläufigkeit in bestimmten Szenarien. |
|
Unterstützung für lokale SSDs, Persistent Disks und Hyperdisks |
Dies kann als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden. So wird die lokale SSD angeschlossen:
Sie können den Maschinentypen in dieser Reihe auch bis zu 512 TiB Persistent Disk- und Hyperdisk-Speicher für Anwendungen hinzufügen, die eine höhere Speicherleistung erfordern. Bei ausgewählten Maschinentypen werden auch bis zu 257 TiB nichtflüchtiger Speicher unterstützt. |
|
Unterstützung für Richtlinien für kompakte Platzierung | Bietet mehr Kontrolle über die physische Platzierung Ihrer Instanzen in Rechenzentren. Sie ermöglicht eine geringere Latenz und eine höhere Bandbreite für Instanzen, die sich innerhalb einer einzelnen Verfügbarkeitszone befinden. Weitere Informationen finden Sie unter Richtlinien für kompakte Platzierung. |
A3 Ultra-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Speicher* (GB HBM3e) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen NICs | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a3-ultragpu-8g |
8 | 1128 | 224 | 2.952 | 12.000 | 10 | 3.600 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A3 Ultra
- Sie können Kapazität nur mit den unterstützten Bereitstellungsoptionen für einen A3 Ultra-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für die zugesicherte Nutzung für VMs, die einen A3-Ultra-Maschinentyp verwenden.
- Sie können den A3-Ultra-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können nichtflüchtige Speicher (regional oder zonal) nicht auf einer VM verwenden, die einen A3-Ultra-Maschinentyp verwendet.
- Der A3-Ultra-Maschinentyp ist nur auf der Emerald Rapids-CPU-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A3-Ultra-Maschinentyp ändern. Sie können nur neue A3-Ultra-VMs erstellen. Nachdem Sie eine VM mit einem A3-Ultra-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- A3 Ultra-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf einem A3-Ultra-Maschinentyp ausführen.
A3 Mega-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen NICs | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a3-megagpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 9 | 1.800 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A3 Mega
- Sie können Kapazität nur über die unterstützten Bereitstellungsoptionen für einen A3 Mega-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für die zugesicherte Nutzung für VMs, die A3 Mega-Maschinentypen verwenden.
- Sie können den A3 Mega-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können regionale nichtflüchtige Speicher nicht auf einer VM verwenden, die einen A3-Mega-Maschinentyp verwendet.
- Der Maschinentyp „A3 Mega“ ist nur auf der Sapphire Rapids-CPU-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A3-Mega-Maschinentyp ändern. Sie können nur neue A3-Mega-VMs erstellen. Nachdem Sie eine VM mit einem A3-Mega-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- A3 Mega-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf einem A3 Mega-Maschinentyp ausführen.
A3 High-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen NICs | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a3-highgpu-1g |
1 | 80 | 26 | 234 | 750 | 1 | 25 |
a3-highgpu-2g |
2 | 160 | 52 | 468 | 1.500 | 1 | 50 |
a3-highgpu-4g |
4 | 320 | 104 | 936 | 3.000 | 1 | 100 |
a3-highgpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 5 | 1.000 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A3 High
- Sie können Kapazität nur mit den unterstützten Bereitstellungsoptionen für einen A3-High-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für die zugesicherte Nutzung für VMs, die A3 High-Maschinentypen verwenden.
- Sie können den A3 High-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können regionale nichtflüchtige Speicher nicht auf einer VM verwenden, die einen A3-High-Maschinentyp verwendet.
- Der A3 High-Maschinentyp ist nur auf der Sapphire Rapids-CPU-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A3 High-Maschinentyp ändern. Sie können nur neue A3-High-VMs erstellen. Nachdem Sie eine VM mit einem A3-High-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- A3 High-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf einem A3 High-Maschinentyp ausführen.
- Für die Maschinentypen
a3-highgpu-1g
,a3-highgpu-2g
unda3-highgpu-4g
gelten die folgenden Einschränkungen:-
Für diese Maschinentypen müssen Sie VMs mit Spot-VMs oder einer Funktion erstellen, die den Dynamic Workload Scheduler (DWS) verwendet, z. B. Anfragen zur Größenanpassung in einer MIG. Eine ausführliche Anleitung zu diesen beiden Optionen findest du hier:
- Wenn Sie Spot-VMs erstellen möchten, legen Sie beim Erstellen einer beschleunigungsoptimierten VM das Bereitstellungsmodell auf
SPOT
fest. - Informationen zum Erstellen einer Anfrage zur Größenänderung in einer MIG, die DWS verwendet, finden Sie unter MIG mit GPU-VMs erstellen.
- Wenn Sie Spot-VMs erstellen möchten, legen Sie beim Erstellen einer beschleunigungsoptimierten VM das Bereitstellungsmodell auf
- Sie können Hyperdisk Balanced nicht mit diesen Maschinentypen verwenden.
- Sie können keine Reservierungen erstellen.
-
Für diese Maschinentypen müssen Sie VMs mit Spot-VMs oder einer Funktion erstellen, die den Dynamic Workload Scheduler (DWS) verwendet, z. B. Anfragen zur Größenanpassung in einer MIG. Eine ausführliche Anleitung zu diesen beiden Optionen findest du hier:
A3 Edge-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen NICs | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a3-edgegpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 5 |
|
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A3 Edge
- Sie können Kapazität nur über die unterstützten Bereitstellungsoptionen für einen A3 Edge-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für die zugesicherte Nutzung für VMs, die A3 Edge-Maschinentypen verwenden.
- Sie können den A3 Edge-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können regionale nichtflüchtige Speicher nicht auf einer VM verwenden, die einen A3 Edge-Maschinentyp verwendet.
- Der A3 Edge-Maschinentyp ist nur auf der Sapphire Rapids-CPU-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A3 Edge-Maschinentyp ändern. Sie können nur neue A3-Edge-VMs erstellen. Nachdem Sie eine VM mit einem A3 Edge-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- A3 Edge-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf einem A3 Edge-Maschinentyp ausführen.
Unterstützte Laufwerkstypen für die A3-Reihe
A3 Ultra
A3 Ultra-VMs können folgende Blockspeichertypen verwenden:
- Hyperdisk Balanced (
hyperdisk-balanced
): Dies ist der einzige Laufwerktyp, der für das Bootlaufwerk unterstützt wird. - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk Extrem (
hyperdisk-extreme
) - Lokale SSD: Wird VMs, die mit einem der A3-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | |||||||
---|---|---|---|---|---|---|---|
Maschinentypen |
Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk mit ausgeglichener Hochverfügbarkeit | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Angehängte lokale SSDs |
a3-ultragpu-8g |
128 | 128 | 128 | – | – | 8 | 32 |
* Die Nutzung von Hyperdisk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Preise für Hyperdisk.
† Dieses Limit gilt für Hyperdisk, nicht jedoch für lokale SSDs.
A3 Mega
A3 Mega-VMs können folgende Blockspeichertypen verwenden:
- Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Hyperdisk Balanced (
hyperdisk-balanced
) - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Extrem (
hyperdisk-extreme
) - Hyperdisk Durchsatz (
hyperdisk-throughput
) - Lokale SSD: Wird VMs, die mit einem der A3-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | |||||||
---|---|---|---|---|---|---|---|
Maschinentypen |
Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk mit ausgeglichener Hochverfügbarkeit | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Angehängte lokale SSDs |
a3-megagpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
* Die Nutzung von Hyperdisk und Persistent Disk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Preise für Persistent Disk und Hyperdisk.
† Dieses Limit gilt für Persistent Disk und Hyperdisk, nicht jedoch für lokale SSDs.
A3 High
A3 High-VMs können folgende Blockspeichertypen verwenden:
- Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Hyperdisk Balanced (
hyperdisk-balanced
): nur füra3-highgpu-8g
unterstützt - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Extrem (
hyperdisk-extreme
) - Hyperdisk Durchsatz (
hyperdisk-throughput
) - Lokale SSD: Wird VMs, die mit einem der A3-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | |||||||
---|---|---|---|---|---|---|---|
Maschinentypen |
Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk mit ausgeglichener Hochverfügbarkeit | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Angehängte lokale SSDs |
a3-highgpu-1g |
128 | – | 32 | 64 | 64 | – | 2 |
a3-highgpu-2g |
128 | – | 32 | 64 | 64 | – | 4 |
a3-highgpu-4g |
128 | – | 32 | 64 | 64 | 8 | 8 |
a3-highgpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
* Die Nutzung von Hyperdisk und Persistent Disk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Preise für Persistent Disk und Hyperdisk.
† Dieses Limit gilt für Persistent Disk und Hyperdisk, nicht jedoch für lokale SSDs.
A3 Edge
A3 Edge-VMs können folgende Blockspeichertypen verwenden:
- Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Hyperdisk Balanced (
hyperdisk-balanced
) - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Extrem (
hyperdisk-extreme
) - Hyperdisk Durchsatz (
hyperdisk-throughput
) - Lokale SSD: Wird VMs, die mit einem der A3-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | |||||||
---|---|---|---|---|---|---|---|
Maschinentypen | Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk mit ausgeglichener Hochverfügbarkeit | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Verbundene lokale SSD |
a3-edgegpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
* Die Nutzung von Hyperdisk und Persistent Disk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Preise für Persistent Disk und Hyperdisk.
† Dieses Limit gilt für Persistent Disk und Hyperdisk, nicht jedoch für lokale SSDs.
Laufwerks- und Kapazitätslimits
Sofern vom Maschinentyp unterstützt, können Sie eine Mischung aus Hyperdisk- und Persistent Disk-Volumes auf einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen:
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle Persistent Disk-Volumes
Weitere Informationen zu den Kapazitätslimits finden Sie unter Größen- und Anhangslimits für Hyperdisks und Maximale Kapazität von Persistent Disk.
Die A2-Maschinenserie
Die A2-Maschinenreihe ist in den Maschinentypen A2-Standard und A2-Ultra verfügbar. Diese Maschinentypen haben 12 bis 96 vCPUs und bis zu 1.360 GB Arbeitsspeicher.
VM-Instanzen, die mit den A2-Maschinentypen erstellt wurden, bieten folgende Funktionen:
GPU-Beschleunigung: Jede A2-Instanz hat NVIDIA A100-GPUs. Diese sind in den Optionen A100 mit 40 GB sowie A100 mit 80 GB verfügbar.
Branchenführende NVLink-Skalierung, die eine maximale GPU-zu-GPU-NVLink-Bandbreite von 600 Gbit/s bietet. Beispielsweise haben Systeme mit 16 GPUs eine NVLink-Bandbreite von bis zu 9,6 Terabyte pro Sekunde. Diese 16 GPUs können als einzelner Hochleistungs-Beschleuniger mit einheitlichem Arbeitsspeicher verwendet werden, um bis zu 10 petaFLOPS Rechenleistung zu liefern, und bis zu 20 PetaFLOPS Inferenz-Computing, die für künstliche Intelligenz, Deep Learning und ML-Arbeitslasten verwendet werden kann..
Höhere Rechengeschwindigkeit: Die angehängten NVIDIA A100-GPUs bieten im Vergleich zu NVIDIA V100-GPUs der vorherigen Generation eine bis zu zehnmal höhere Rechengeschwindigkeit.
Mit der A2-Maschinenserie erhalten Sie bis zu 100 Gbit/s-Netzwerkbandbreite.
Unterstützung für lokale SSDs, Persistent Disks und Hyperdisks: Für schnelle Scratch-Disks oder zum Einspeisen von Daten in die GPUs, während E/A-Engpässe vermieden werden, unterstützen die A2-Maschinentypen lokale SSDs so:
- Bei den A2-Standard-Maschinentypen können Sie beim Erstellen einer Instanz bis zu 3.000 GiB an lokalen SSD-Speicher hinzufügen.
- Bei den A2-Ultra-Maschinentypen wird der lokale SSD-Speicher beim Erstellen einer Instanz automatisch angehängt.
Für Anwendungen, die eine höhere Speicherleistung erfordern, können Sie A2-Instanzen auch bis zu 257 TiB Persistent Disk- und 512 TiB Hyperdisk-Volumes zuordnen.
Unterstützung der Richtlinie für kompakte Platzierung: Bietet mehr Kontrolle über die physische Platzierung Ihrer Instanzen in Rechenzentren. Sie ermöglicht eine geringere Latenz und eine höhere Bandbreite für Instanzen, die sich innerhalb einer einzelnen Verfügbarkeitszone befinden. Weitere Informationen finden Sie unter Latenz mithilfe von Richtlinien für kompakte Platzierung reduzieren.
Für die A2-Maschinenreihe sind die folgenden Maschinentypen verfügbar.
A2 Ultra-Maschinentypen
Diese Maschinentypen haben eine feste Anzahl von A100-GPUs mit 80GB. Lokale SSDs werden automatisch an Instanzen angehängt, die mit den A2 Ultra-Maschinentypen erstellt wurden.
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|
a2-ultragpu-1g |
1 | 80 | 12 | 170 | 375 | 24 |
a2-ultragpu-2g |
2 | 160 | 24 | 340 | 750 | 32 |
a2-ultragpu-4g |
4 | 320 | 48 | 680 | 1.500 | 50 |
a2-ultragpu-8g |
8 | 640 | 96 | 1.360 | 3.000 | 100 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der Instanz getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A2 Ultra
- Sie können Kapazität nur über die unterstützten Bereitstellungsoptionen für einen A2-Ultra-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für die zugesicherte Nutzung für VMs, die A2-Ultra-Maschinentypen verwenden.
- Sie können den A2-Ultra-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Die A2-Ultra-Maschinentypen sind nur auf der Cascade Lake-Plattform verfügbar.
- Wenn Ihre VM einen A2-Ultra-Maschinentyp verwendet, können Sie den Maschinentyp nicht ändern. Wenn Sie einen anderen A2-Ultra-Maschinentyp oder einen anderen Maschinentyp verwenden müssen, müssen Sie eine neue VM erstellen.
- Sie können keinen anderen Maschinentyp in einen A2-Ultra-Maschinentyp ändern. Wenn Sie eine VM benötigen, die eine A2-Ultra-Maschinenfamilie verwendet, müssen Sie eine neue VM erstellen.
- Sie können die schnelle Formatierung der angehängten lokalen SSDs nicht auf Windows-VMs verwenden, die A2-Ultra-Maschinentypen verwenden. Um diese lokalen SSDs zu formatieren, müssen Sie eine vollständige Formatierung mit dem diskpart-Dienstprogramm durchführen und
format fs=ntfs label=tmpfs
angeben.
A2-Standardmaschinentypen
Diese Maschinentypen haben eine feste Anzahl von A100-GPUs mit 40GB.
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|
a2-highgpu-1g |
1 | 40 | 12 | 85 | Ja | 24 |
a2-highgpu-2g |
2 | 80 | 24 | 170 | Ja | 32 |
a2-highgpu-4g |
4 | 160 | 48 | 340 | Ja | 50 |
a2-highgpu-8g |
8 | 320 | 96 | 680 | Ja | 100 |
a2-megagpu-16g |
16 | 640 | 96 | 1.360 | Ja | 100 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der Instanz getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A2 Standard
- Sie können Kapazität nur mit den unterstützten Bereitstellungsoptionen für einen A2-Standardmaschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für die zugesicherte Nutzung für VMs, die A2-Standardmaschinentypen verwenden.
- Sie können den A2-Standard-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Die A2-Standardmaschinentypen sind nur auf der Cascade Lake-Plattform verfügbar.
- Wenn Ihre VM einen A2-Standardmaschinentyp verwendet, können Sie nur von einem A2-Standardmaschinentyp zu einem anderen A2-Standardmaschinentyp wechseln. Sie können keinen anderen Maschinentyp ändern. Weitere Informationen finden Sie unter Beschleunigeroptimierte VMs ändern.
- Sie können das Windows-Betriebssystem nicht mit den Maschinentypen <codea2-megagpu-16g< code="" dir="ltr" translate="no"> A2 Standard verwenden. Wählen Sie einen anderen A2-Standard-Maschinentyp aus, wenn Sie Windows-Betriebssysteme verwenden.</codea2-megagpu-16g<>
- Sie können die schnelle Formatierung der angehängten lokalen SSDs nicht auf Windows-VMs verwenden, die A2-Standard-Maschinentypen verwenden. Um diese lokalen SSDs zu formatieren, müssen Sie eine vollständige Formatierung mit dem diskpart-Dienstprogramm durchführen und
format fs=ntfs label=tmpfs
angeben. - A2-Standardmaschinentypen unterstützen keine einzelnen Mandanten.
Unterstützte Laufwerktypen für die A2-Reihe
A2-Instanzen können folgende Blockspeichertypen verwenden:
- Hyperdisk ML (
hyperdisk-ml
) - Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Nichtflüchtiger Standardspeicher (
pd-standard
) - Lokale SSD: Wird automatisch an Instanzen angehängt, die mit den A2 Ultra-Maschinentypen erstellt wurden.
Sofern vom Maschinentyp unterstützt, können Sie eine Mischung aus Hyperdisk- und Persistent Disk-Volumes auf einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen:
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle Persistent Disk-Volumes
Weitere Informationen zu den Kapazitätslimits finden Sie unter Größen- und Anhangslimits für Hyperdisks und Maximale Kapazität von Persistent Disk.
Die G2-Maschinenserie
Die G2-Maschinenserie ist in Standardmaschinentypen verfügbar, die haben 4 bis 96 vCPUs und bis zu 432 GB Arbeitsspeicher. Diese Maschinenserie ist für Inferenz- und Grafikarbeitslasten optimiert. Die G2-Maschinenreihe ist in einem einzigen Standardmaschinentyp mit mehreren Konfigurationen verfügbar.
VM-Instanzen, die mit den G2-Maschinentypen erstellt wurden, bieten die folgenden Funktionen:
GPU-Beschleunigung: Jeder G2-Maschinentyp hat NVIDIA L4-GPUs.
Verbesserte Inferenzraten: Der G2-Maschinentyp unterstützt den Datentyp FP8 (8-Bit-Gleitkomma), was ML-Inferenzraten beschleunigt und Arbeitsspeicherbedarf reduziert.
Grafikleistung der nächsten Generation: NVIDIA L4-GPUs bieten mit RT-Kernen der dritten Generation und NVIDIA DLSS 3-Technologie (Deep Learning Super Sampling) eine bis zu dreimal höhere Grafikleistung.
Hohe Netzwerkbandbreite: Mit den G2-Maschinentypen erhalten Sie bis zu 100 Gbit/s-Netzwerkbandbreite.
Unterstützung für lokale SSDs, Persistent Disks und Hyperdisks: Sie können G2-Instanzen bis zu 3.000 GiB lokalen SSD-Speicher hinzufügen. Dies kann als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
Sie können G2-Instanzen auch Hyperdisk- und Persistent Disk-Volumes zuordnen, wenn Anwendungen mehr nichtflüchtigen Speicher benötigen. Die maximale Speicherkapazität hängt von der Anzahl der vCPUs der VM ab. Weitere Informationen finden Sie unter Unterstützte Laufwerkstypen.
Unterstützung der Richtlinie für kompakte Platzierung: Bietet mehr Kontrolle über die physische Platzierung Ihrer Instanzen in Rechenzentren. Sie ermöglicht eine geringere Latenz und eine höhere Bandbreite für Instanzen, die sich innerhalb einer einzelnen Verfügbarkeitszone befinden. Weitere Informationen finden Sie unter Latenz mithilfe von Richtlinien für kompakte Platzierung reduzieren.
G2-Maschinentypen
Jeder G2-Maschinentyp hat eine feste Anzahl von NVIDIA L4-GPUs und vCPUs. Jeder G2-Maschinentyp hat auch einen Standardarbeitsspeicher und einen benutzerdefinierten Arbeitsspeicherbereich. Der benutzerdefinierte Arbeitsspeicherbereich definiert die Größe des Arbeitsspeichers, den Sie Ihrer VM für jeden Maschinentyp zuweisen können. Sie können Ihren benutzerdefinierten Arbeitsspeicher während der VM-Erstellung angeben.
Maschinentyp | GPU-Anzahl | GPU-Speicher* (GB GDDR6) | vCPU-Anzahl† | Standard-VM-Arbeitsspeicher (GB) | Benutzerdefinierter VM-Arbeitsspeicherbereich (GB) | Maximal unterstützte lokale SSD (GiB) | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
g2-standard-4 |
1 | 24 | 4 | 16 | 16 bis 32 | 375 | 10 |
g2-standard-8 |
1 | 24 | 8 | 32 | 32 bis 54 | 375 | 16 |
g2-standard-12 |
1 | 24 | 12 | 48 | 48 bis 54 | 375 | 16 |
g2-standard-16 |
1 | 24 | 16 | 64 | 54 bis 64 | 375 | 32 |
g2-standard-24 |
2 | 48 | 24 | 96 | 96 bis 108 | 750 | 32 |
g2-standard-32 |
1 | 24 | 32 | 128 | 96 bis 128 | 375 | 32 |
g2-standard-48 |
4 | 96 | 48 | 192 | 192 bis 216 | 1.500 | 50 |
g2-standard-96 |
8 | 192 | 96 | 384 | 384 bis 432 | 3.000 | 100 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von G2
- Sie können Kapazität nur mit den unterstützten Bereitstellungsoptionen für einen G2-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für die zugesicherte Nutzung für VMs, die G2-Maschinentypen verwenden.
- Sie können G2-Maschinentypen nur in bestimmten Regionen und Zonen verwenden.
- Die G2-Maschinentypen sind nur auf der Cascade Lake-Plattform verfügbar.
- Nichtflüchtige Standardspeicher (
pd-standard
) werden auf VMs, die G2-Standardmaschinentypen verwenden, nicht unterstützt. Informationen zu unterstützten Laufwerkstypen finden Sie unter Unterstützte Laufwerkstypen für G2. - Sie können keine GPUs mit mehreren Instanzen auf G2-Maschinentypen erstellen.
- Wenn Sie den Maschinentyp einer G2-VM ändern müssen, lesen Sie die Informationen unter Beschleunigeroptimierte VMs ändern.
- Sie können keine Deep Learning VM Images als Bootlaufwerke für VMs verwenden, die G2-Maschinentypen verwenden.
- Der aktuelle Standardtreiber für Container-Optimized OS unterstützt keine L4-GPUs, die auf G2-Maschinentypen ausgeführt werden. Container-Optimized OS unterstützt auch nur bestimmte Treiber.
Wenn Sie Container-Optimized OS auf G2-Maschinentypen verwenden möchten, lesen Sie die folgenden Hinweise:
- Verwenden Sie eine Container-Optimized OS-Version, die die mindestens empfohlene NVIDIA-Treiberversion
525.60.13
oder höher unterstützt. Weitere Informationen finden Sie in den Versionshinweisen zu Container-Optimized OS. - Geben Sie bei der Installation des Treibers die neueste verfügbare Version an, die für die L4-GPUs funktioniert.
Beispiel:
sudo cos-extensions install gpu -- -version=525.60.13
.
- Verwenden Sie eine Container-Optimized OS-Version, die die mindestens empfohlene NVIDIA-Treiberversion
- In den folgenden Szenarien müssen Sie über die Google Cloud CLI oder REST G2-VMs erstellen:
- Sie möchten benutzerdefinierte Speicherwerte angeben.
- Sie möchten die Anzahl der sichtbaren CPU-Kerne anpassen.
Unterstützte Laufwerktypen für die G2-Reihe
G2-Instanzen können folgende Blockspeichertypen verwenden:
- Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Durchsatz (
hyperdisk-throughput
) - Lokale SSD
Sofern vom Maschinentyp unterstützt, können Sie eine Mischung aus Hyperdisk- und Persistent Disk-Volumes auf einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen:
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle Persistent Disk-Volumes
Weitere Informationen zu den Kapazitätslimits finden Sie unter Größen- und Anhangslimits für Hyperdisks und Maximale Kapazität von Persistent Disk.